CN102822772A - 基于位置提供触觉刺激的系统和方法 - Google Patents
基于位置提供触觉刺激的系统和方法 Download PDFInfo
- Publication number
- CN102822772A CN102822772A CN2011800163713A CN201180016371A CN102822772A CN 102822772 A CN102822772 A CN 102822772A CN 2011800163713 A CN2011800163713 A CN 2011800163713A CN 201180016371 A CN201180016371 A CN 201180016371A CN 102822772 A CN102822772 A CN 102822772A
- Authority
- CN
- China
- Prior art keywords
- user
- haptic stimulus
- content
- display surface
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 34
- 230000005540 biological transmission Effects 0.000 claims description 39
- 230000004936 stimulating effect Effects 0.000 claims description 34
- 230000000007 visual effect Effects 0.000 claims description 21
- 230000008859 change Effects 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 12
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000001953 sensory effect Effects 0.000 abstract 3
- 230000006870 function Effects 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 230000000638 stimulation Effects 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000000712 assembly Effects 0.000 description 4
- 238000000429 assembly Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 229920001746 electroactive polymer Polymers 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/25—Output arrangements for video game devices
- A63F13/28—Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
- A63F13/285—Generating tactile feedback signals via the game input device, e.g. force feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/40—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
- A63F13/42—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
- A63F13/428—Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B06—GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS IN GENERAL
- B06B—METHODS OR APPARATUS FOR GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS OF INFRASONIC, SONIC, OR ULTRASONIC FREQUENCY, e.g. FOR PERFORMING MECHANICAL WORK IN GENERAL
- B06B1/00—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency
- B06B1/02—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy
- B06B1/06—Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- H—ELECTRICITY
- H10—SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10N—ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
- H10N30/00—Piezoelectric or electrostrictive devices
- H10N30/20—Piezoelectric or electrostrictive devices with electrical input and mechanical output, e.g. functioning as actuators or vibrators
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1037—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/105—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/013—Force feedback applied to a game
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开涉及基于位置提供触觉刺激的系统和方法。为了给一个或多个用户传送其他感知内容而产生与其他感知内容相关的触觉刺激。这可以增强通过内容提供给一个或多个用户的体验。感知内容可以包括视频内容、视频游戏内容、音频内容、和/或其他内容。触觉刺激可以基于位置信息而变化。这种位置信息可以包括与一个或多个用户的位置、控制器(例如游戏控制器)的位置、发送触觉刺激的激励器的位置有关的信息,和/或其他位置信息。
Description
相关申请
本申请要求2010年3月31日提交的、标题为“System AndMethod For Providing Haptic Stimulus Based On Position(基于位置提供触觉刺激的系统和方法)”的美国专利申请No.12/751,780的优先权,该申请的全部内容通过引用并入本申请。
技术领域
本申请涉及基于位置给用户提供触觉刺激。
背景技术
结合视觉和/或音频内容给用户提供刺激的系统是已知的。一般理解,触觉刺激可以增强与内容相关的用户体验的一个或多个方面。然而,传统系统不基于与用户的位置或用户的身体部分有关的位置信息而使触觉刺激变化。而是,不考虑用户的位置、产生触觉反馈的激励器(actuator)的位置、传送视觉和/或音频内容的用户接口设备的位置,和/或其他位置,来确定和产生触觉反馈。
发明内容
本发明的一方面涉及一种配置成给一个或多个用户提供触觉刺激的系统。在一个实施例中,系统包含用户接口、激励器和一个或多个处理器。用户接口设备具有内容发送部分,感知内容从内容发送部分传送给一个或多个用户。激励器被配置成产生与被传送给一个或多个用户的至少其中之一的感知内容相关的触觉刺激。一个或多个处理器被配置成执行计算机程序模块。计算机程序模块包含刺激模块,和激励器模块。刺激模块被配置成确定要为一个或多个用户产生的触觉刺激,该刺激与被传送给一个或多个用户的感知内容相关,其中触觉刺激依据相对于用户接口设备的内容发送部分的位置而变化。激励器控制模块被配置成控制激励器以产生由刺激模块确定的触觉刺激。
本发明的另一方面涉及一种给用户提供触觉刺激的方法。在一个实施例中,该方法包含在用户接口设备的内容发送部分给用户传送内容;确定要为用户产生的与传送给用户的内容相关的触觉刺激,其中触觉刺激依据相对于用户接口设备的内容发送部分的位置而变化;并且产生触觉刺激。
本发明的又一方面涉及一种配置成给用户提供触觉刺激的系统。在一个实施例中,系统包含用户接口设备、激励器,和一个或多个处理器。用户接口设备具有内容发送部分,感知内容从内容发送部分传送给用户。激励器被配置成产生与被传送给用户的感知内容相关的触觉刺激,该触觉刺激被配置成由用户身体的第一部分引起。一个或多个处理器被配置成执行计算机程序模块,计算机程序模块包含刺激模块和激励器控制模块。刺激模块被配置成确定要为用户产生的触觉刺激,该触觉刺激与被传送给用户的感知内容相关,其中触觉刺激依据用户身体的第一部分相对于用户身体的第二部分的位置而变化。激励器控制模块被配置成控制激励器以产生由刺激模块确定的触觉刺激。
参考附图,考虑了下面的描述和所附权利要求之后,本发明的这些和其他目的、特征和特性,以及操作方法和结构的相关元件的功能,和制造的部件和节约性的组合,都将变得更加明白,全部附图形成本说明书的一部分,其中在不同的附图中相同的附图标记指定相应的部件。然而,要清楚理解的是,附图仅仅是出于示例和描述的目的,并非旨在作为限制本发明的限定。正如在说明书和权利要求中使用的那样,单数形式的“一个”、“所述”和“该”包括复数对象,除非内容清楚地另有所指。
附图说明
图1示出根据本发明的一个或多个实施例的被配置成提供与其他感知内容相关的触觉刺激的系统。
图2示出根据本发明的一个或多个实施例的提供与其他感知内容相关的触觉刺激的方法。
具体实施方式
图1示出配置成提供与被传送给一个或多个用户的其他感知内容相关的触觉刺激的系统10。这可以增强通过内容提供给一个或多个用户的体验。感知内容可以包括视频内容、视频游戏内容,音频内容、三维内容,和/或其他内容。系统10被配置成基于位置信息使与其他感知内容相关的触觉刺激变化。这种位置信息可以包括与一个或多个用户的位置、控制器(例如游戏控制器)的位置、发送触觉刺激的激励器的位置有关的信息,和/或其他位置信息。在一个实施例中,系统10包括一个或多个用户接口设备12,用户接口设备12包含内容发送部分14、一个或多个激励器16、一个或多个传感器18、一个或多个控制器20、电子储存器22、一个或多个处理器24、和/或其他组件。
用户接口设备12被配置成给一个或多个用户提供感知内容。感知内容通过用户接口设备12的内容发送部分14被传送给一个或多个用户。在一个实施例中,用户接口设备12被配置成在给用户传送内容期间位于固定位置,并且不被移动和/或由用户随身携载。这不旨在作为一种限制,因为本文描述的一个或多个原理可以被延伸到用户接口设备是可移动/便携的系统(例如便携式游戏系统、智能电话等)。在一个实施例中,用户接口设备12包括电子显示器。在这个实施例中,电子显示器的显示表面起到用户接口设备12的内容发送部分14的功能。在一个实施例中,用户接口设备12包括音频扬声器。在这个实施例中,从用户接口设备12发射声音的区域起到内容发送部分14的功能。在一个实施例中,用户接口设备12包括电子显示器和音频扬声器。
由用户接口设备12提供给用户的感知内容可以包括视频,诸如电影、电视和/或其他视频。由用户接口设备12提供给用户的感知内容可以包括与视频游戏、虚拟世界、仿真、和/或其他计算机产生的图形相关的(动态和/或静态的)图形。在用户接口设备12给用户传送视频、计算机产生的图形、和/或其他视觉内容的实施例中,用户接口设备12可以进一步给用户提供与视觉内容相关的音频内容。例如,电影或电视秀、视频游戏、或其他类型的视觉内容,可以与音轨相关,音轨与视觉内容同时被传送给用户。在一个实施例中,用户接口设备12被配置成给用户发送不伴随视觉内容的音频内容。
在用户接口设备12是电子显示器的一个实施例中,用户接口设备12能够通过起到内容发送部分14功能的显示表面给用户传送内容的三维视图。三维视图可以包括视频内容、计算机产生的图像、和/或其他视觉内容的三维视图。通过非限制性示例,在这个实施例中,用户接口设备12可以包括采用活性3D玻璃(active 3D glasses)、透镜显示器(lenticular display)、和/或其他类型的三维显示器的一个或多个系统。
激励器16被配置成为用户产生触觉刺激。同样,在通过用户接口设备12给用户传送感知内容期间,至少一些激励器16接触用户,或者接触与用户接触的物体。通过非限制性示例,一个或多个激励器16可以位于支撑用户的地板表面内或地板表面上(例如安装在地板内,被放在地板上的垫子携载等),一个或多个激励器16可以通过用户佩带的矫形器(brace)或其他可佩带物品来携载,一个或多个激励器16可以通过被用户携载的物体来携载(例如被控制器20携载),一个或多个激励器16可以通过用户坐在或躺在其上的装备来携载,和/或一个或多个激励器16可以通过接触用户的其他物体携载,或者布置在接触用户的其他物体之内或之上。
正如本文所使用的那样,术语“触觉刺激”指的是施加给用户的触知反馈。例如,这种反馈可以包括由激励器16和/或激励器16和用户都接触的物体物理施加给用户的一个或多个轻微振动、力和/或动作。还可以将超声能量形式、或能量的其他形式的非接触式触知反馈实施为触觉刺激。激励器16可以包括被配置成产生这种反馈以便施加给用户的任何设备。例如,激励器16可以包括一个或多个压电激励器、气动激励器、偏心块(eccentric mass)激励器、电活性(electroactive)聚合体激励器、静电表面激励器、形状记忆合金,和/或其他激励器。
将意识到的是,虽然在图1中将激励器16示出为单个实体,但这仅仅是出于示例性的目的。在一个实施例中,激励器16包括多个激励器。多个激励器可以被包括在单个物体或设备中、被其携载、和/或与其接触。或者,多个激励器可以包括被包括在多个单独的物体或设备中、被其携载、和/或与其接触的激励器。
传感器18被配置成产生输出信号,输出信号传送与位置有关的信息。在一个实施例中,输出信号传送与至少一个用户、激励器16(例如,如果一个或多个激励器16被包括在可移动物体中或者被可移动物体携载)、控制器20、和/或其他物体之中的一个或多个的位置有关的信息。通过传感器18的输出信号传送的信息的所用于的位置可以包括绝对坐标系统中的一个或多个位置,相对于用户接口设备12的位置(例如相对于内容发送部分14的位置),激励器16和/或传感器18之中的一个或两个相对于用户和/或用户的身体部分的位置,用户相对于彼此的位置,和/或相对于其他物体的位置。
产生传送与位置相关信息的输出信号的多种传感器的任何一种的一个或多个可以被实施成系统10中的传感器18。通过非限制性示例,传感器18可以包括一个或多个加速度计、陀螺仪、数字式罗盘、超声回声定位传感器、光学距离或近程式传感器、成像传感器(例如视频或静态成像)、射频传感器,和/或其他传感器。将意识到的是,传感器18的输出信号可以直接传送位置信息,诸如距离、方位、角度,和/或其他位置信息。传感器18的输出信号可以间接传送位置信息。例如,传感器18可以传送与位置的时间导数有关的信息(例如加速度),可以确定来自哪一位置的图像,和/或可以确定来自哪一位置的其他类型的信息。输出信号可以是来自传感器18“原始”输出,或者传感器18可以包括用于提供某些初步处理的能力。
在一个实施例中,传感器18包括通过系统10的其他组件(例如激励器16、传感器18等)携载的一个或多个传感器。在一个实施例中,传感器18包括使用期间不被移动的一个或多个传感器。在一个实施例中,传感器18包括被提供为可由用户佩带的单独的组件的一个或多个传感器。
控制器20被配置成相对于系统10提供用户交互和控制。在一个实施例中,控制器20包括由用户实施的一个或多个游戏控制器,以在视频游戏、虚拟世界和/或仿真中操纵虚拟特性和/或对象。在一个实施例中,控制器20包括被配置成给用户提供对系统10中的一个或多个其他组件的配置和/或设置进行控制(例如对用户接口设备12远程控制)的一个或多个电子控制器。控制器20可以包括手持式控制器,与手持式组件协同工作的照相机控制器(例如SonyEye和运动控制器),和/或非手持的控制器(例如飞行仿真控制、驱动仿真控制等)。
在一个实施例中,电子储存器22包含电子地存储信息的电子储存介质。电子储存器22的电子储存介质可以包括与系统10集成(即基本不可拆卸地)提供的一个或两个系统储存器,和/或经由例如端口(例如通用串行总线(USB)端口、火线(firewire)端口等)或驱动器(例如磁盘驱动器等)可拆卸地连接至系统10的可拆卸式储存器。电子储存器22可以包括一个或多个光学可读储存介质(例如光盘等),磁性可读储存介质(例如磁带、磁性硬盘驱动器、软盘驱动器等),基于电子电荷(electrical charge-based)的储存介质(例如电可擦除只读存储器(EEPROM)、随机存取存储器(RAM)等),固态储存介质(例如闪盘驱动器等),和/或其他电可读储存介质。电子储存器22可以存储软件算法、由处理器24确定的信息、要通过用户接口设备12传送给用户的内容,和/或使系统10能够正确工作的其他信息。电子储存器22可以是系统10内的单独的组件,或者电子储存器22可以与系统10的一个或多个其他组件(例如用户接口设备12、处理器24等)集成提供。
处理器24被配置成在系统10中提供信息处理能力。同样,处理器24可以包括数字处理器、模拟处理器、设计成处理信息的数字电路、设计成处理信息的模拟电路、状态机、和/或用于电子地处理信息的其他机构之中的一个或多个。虽然处理器24在图1中被示出为单个实体,但是这仅仅是出于示例性的目的。在一些实施方式中,处理器24可以包括多个处理单元。这些处理单元可以物理地位于同一个设备内,或者处理器24可以代表协同操作的多个设备的处理功能。例如,在一个实施例中,下属于处理器24的功能在第一处理器和第二处理器之间被划分,第一处理器被设置在计算机、视频游戏控制台、光盘播放器和/或其他家用娱乐设施中,并且第二处理器与第一处理器通信以给第一处理器提供位置信息。
如图1所示,处理器24可以被配置成执行一个或多个计算机程序模块。该一个或多个计算机程序模块可以包括内容提供模块26、位置模块28、刺激模块30、激励器控制模块32、和/或其他模块之中的一个或多个。处理器24可以被配置成通过软件;硬件;固件;软件、硬件和/或固件的一些组合;和/或用于在处理器24上配置处理能力的其他机构来执行模块26、28、30和/或32。
应该意识到的是,虽然模块26、28、30和/或32在图1中被示出为与单个的处理单元协同定位,但是在处理器24包括多个处理单元的实施方式中,模块26、28、30和/或32之中的一个或多个可以位于远离其他模块之处。下面描述的由不同模块26、28、30和/或32提供的功能的描述是出于示例性的目的,而非旨在为限制性的,因为模块26、28、30和/或32的任何一个都可以提供比描述的功能更多或更少的功能。例如,可以除去模块26、28、30和/或32之中的一个或多个,并且可以通过模块26、28、30和/或32之中的另一些模块提供其功能的一些或全部。作为另一个示例,处理器24可以被配置成执行一个或多个附加的模块,这些模块可以执行下属于模块26、28、30和/或32之一的功能的一些或全部。
内容提供模块26被配置成对经由用户接口设备12给用户提供的内容进行控制。如果内容包括计算机产生的图像(例如视频游戏、虚拟世界、仿真等中的图像),则内容提供模块26被配置成通过用户接口设备12产生用于显示给用户的图像和/或视图。如果内容包括视频和/或静止的图像,则内容提供模块26被配置成存取(access)视频和/或静止的图像和产生视频和/或静止的图像的视图,以便显示在用户接口设备12上。如果内容包括音频内容,则内容提供模块26被配置成产生电子信号,电子信号将驱动用户接口设备12输出适当的声音。可以通过内容提供模块26从电子储存器22获得内容、或内容得自于其的信息。
位置模块28被配置成从传感器18产生的输出信号确定位置信息。位置信息可以包括与以下有关的信息:用户的位置、激励器16的位置、传感器18的位置、控制器20的位置、和/或其他位置之中的一个或多个。与由位置模块28确定的位置有关的信息可以描述一个或多个物体(例如,用户、激励器16、传感器18、控制器20等)在绝对坐标系统中相对于其他物体的位置、和/或在其他情况下的位置。正如在本文中使用的那样,“位置信息”或“与位置有关的信息”指的不是与控制输入有关联的手势或运动。而是,“位置信息”或“与位置有关的信息”只是指描述物体的位置、或者在坐标系统中的位置、或者相对于一些其他物体的位置的信息。这种信息可以包括而不限于:坐标、距离、转动方位、和/或角度关系。
刺激模块30被配置成确定要为用户产生的触觉刺激。确定触觉刺激包括确定激励器16的哪一个(或哪些个)应该施加刺激,和/或确定触觉刺激的一个或多个参数。这种一个或多个参数可以包括力的幅度、方向性和方位、刺激的位置、振动的频率、幅度、持续时间、和/或其他参数之中的一个或多个。
通过刺激模块30确定的触觉刺激与通过用户接口设备12传送的感知内容相关。同样,通过利用内容被电子地存储的信息(例如在电子储存器22上)至少可以在某种程度上指示出刺激。通过刺激模块30确定触觉刺激以增强通过内容提供的体验的一个或多个方面。例如,可以确定触觉刺激以增强内容的真实性、内容的娱乐性、用户对内容的理解、和/或经由用户接口设备12传送给用户的内容所提供的体验的其他方面之中的一个或多个。
为了增强经由用户接口设备12传送给用户的内容所提供的体验的一个或多个方面,刺激模块30被配置成基于与位置有关的信息确定触觉刺激。这包括基于用户相对于用户接口设备12的位置、用户的一个身体部分相对于用户的另一个身体部分的位置、一个用户相对于一个或多个其他用户的位置、和/或位置信息,来改变触觉刺激。在基于位置改变触觉刺激的过程中,刺激模块30可以按照清晰的步骤、或平稳地改变刺激。用户接口设备12被配置成以相对于起到内容发送部分14功能的显示表面以离散、预定的视角提供三维视图,然后刺激模块30可以改变触觉刺激,以使每个预定视角都接收到相应于其三维视图的触觉刺激。作为另一个示例,如果一个用户相对于用户接口设备12站在另一个用户后面,则提供给该用户的更加远的触觉刺激可以反映被站在中间的用户的“遮挡”。
确定触觉刺激以考虑位置信息可以是基于由位置模块28确定位置信息,和/或确定与被预先存储或配置的激励器16的位置有关的位置信息。将意识到的是,基于本文描述的位置信息使触觉刺激变化的讨论与基于输入或控制手势使触觉刺激变化是不同的。由刺激模块30基于位置确定触觉刺激不依赖于通过用户执行的手势或物理操纵。而是,由刺激模块30确定的相应于给定控制或输入手势的触觉刺激会在控制或输入手势执行期间基于用户的位置(或者用户身体部分的相对位置)而变化。同样,不相应于控制或输入手势(例如,与被传送给用户的内容的效应或成分(component)相关)的触觉刺激可以由刺激模块30确定,以基于类似的位置信息而变化。
在一个实施例中,刺激模块30确定要为用户产生的触觉刺激,以与被传送给用户的内容的效果的方向性和方位一致。例如,如果用户接口设备12被配置成通过充当内容发送部分14的显示表面产生三维图像,则触觉刺激依据视角、离开内容发送部分14的距离、和/或视角和距离两者而变化,以传送由用户接口设备12传送的三维视图中的视觉实体的方向性和方位。而是可以使用其他有关位置的参数,或者结合视角和/或距离,以改变触觉刺激。
作为这个示例的一个具体实例,如果三维视图中的球远离内容发送部分14沿着一路径向外投射,则由刺激模块30确定触觉刺激以便为位于该路径上或者位于该路径附近的用户模仿被球碰撞。另一方面,不在路径附近的用户不会接收到这种刺激。将意识到的是,可以用一些其他抛射体来替代球。作为这个示例的另一个具体实例,如果在三维视图中显示出爆炸,则触觉刺激能够用于增强爆炸的真实性。这会包括确定触觉刺激的幅度、量、和/或类型,以便与爆炸的方向性和方位一致。
产生触觉刺激以便与通过用户接口设备12传送的三维视图的效果的方向性和/或方位一致的这些实例不旨在为限制性的。示例性使用位置信息以确定触觉刺激的其他实例可以不背离本公开的范围而实施。将意识到的是,改变触觉刺激以反映通过用户接口设备12传送的内容中事件的方向性和/或方位的描述不被限制于三维视图,或者甚至是视觉效果。可以将相同的原理应用于二维视图的效果、和/或音频效果。
在一个实施例中,激励器16包括在传送内容期间相对于用户接口设备12位置固定的一个或多个激励器。例如,激励器16可以包括在传送内容期间是固定的装置、地板、垫子、和/或其他物体携载或包括于其中的激励器。在这个实施例中,刺激模块30可以为固定位置的激励器16确定触觉刺激。与这些固定位置有关的位置信息可以包括由刺激模块30使用的预先配置和/或预先存储的一个或多个位置信息。
在一个实施例中,激励器16包括被用户佩带、携载或另外移动的物体包括于其中或携载的一个或多个激励器。在这个实施例中,由刺激模块30基于其从位置模块28接收到的位置信息来确定要由便携式激励器产生的触觉刺激,该位置信息与用户和/或可移动激励器相对于用户接口设备12的位置有关。例如,可移动激励器可以被包括在游戏控制器、可佩带式背带、枕头、被充填的玩具动物、玩具、和/或其他物体之中。
在一个实施例中,刺激模块30被配置成基于用户的身体部分的相对位置而确定触觉刺激。例如,如果用户正持有控制器20之一,则位置模块28可以确定控制器20相对于用户躯干的位置。随着控制器20离用户越来越近或越来越远,由刺激模块30确定的触觉刺激可以基于相对位置的改变而变化。通过在确定用户相对于用户接口设备12(例如,并非假设20以反映用户的位置而不调整)的位置过程中包括用户躯干与控制器20之间的相对位置可以简单地做出这个改变,或者基于控制器20靠近和/或离开用户躯干的动作而具体做出改变。
在一个实施例中,刺激将用户(和/或控制器20)相对于用户接口设备12的位置和控制器相对于用户的位置考虑在内。例如,响应于用户从他的身体移动控制器20至离开他的身体一个臂长度、为用户确定的刺激可以不同于使控制器20离开他的身体但是向前步进一个臂的长度。同样,向前步进半个臂的长度同时将他的臂伸展到一半可以引起与只移动臂或只向前步进不同的刺激。
在一个实施例中,确定触觉刺激,以便基于控制器20相对于用户躯干的转动方位、或与控制器20相对于用户躯干的相对位置有关的其他信息而变化。
激励器控制模块32被配置成控制激励器16以产生由刺激模块30确定的触觉刺激。这包括将要产生的触觉刺激从处理器24通信到激励器16。要产生的触觉刺激可以在有线通信链路、无线通信链路、和/或处理器24与激励器16之间的其他通信链路上通信。在一个实施例中,归属于激励器控制模块32的功能的至少一部分被布置在由控制器20携载的处理器、和/或携载一个或多个激励器16的一些其他物体之中。
图2示出提供与传送给一个或多个用户的其他感知内容相关的触觉刺激的方法34。下面提供的方法34的操作旨在为示例性的。在一些实施例中,方法34可以利用未描述的一个或多个附加操作、和/或不用所讨论的一个或多个操作来实现。此外,图2中示出和下面描述的方法34的操作顺序旨在为非限制性的。
在一些实施例中,方法34可以在一个或多个处理设备(例如,数字处理器、模拟处理器、设计成处理信息的数字电路、设计成处理信息的模拟电路、状态机,和/或用于电子式处理信息的其他机构)中实施。一个或多个处理设备可以包括响应于电子地存储在电子储存介质上的指令、执行方法34的一些或全部操作的一个或多个设备。一个或多个处理设备可以包括通过专门设计成执行方法34的一个或多个操作的硬件、固件、和/或软件配置的一个或多个设备。
在操作36处,感知内容被传送给一个或多个用户。感知内容可以包括视觉内容、音频内容、和/或其他感知内容。通过类似于用户接口设备12或与其相同、具有类似于内容发送部分14(如上所述在图1中示出)或与其相同的内容发送部分的用户接口设备将感知内容传送给一个或多个用户。
在操作38处,可以确定位置信息。位置信息可以与一个或多个用户、用户的一个或多个身体部分、控制器(例如游戏控制器)、激励器、和/或其他物体的位置(多个位置)有关。位置信息可以指示出在绝对坐标系中的位置,相对于用户接口设备、内容发送部分、用户、和/或其他物体的位置。在一个实施例中,通过类似于位置模块28(如上所述在图1中示出)或与其相同的位置模块执行操作38。
在操作40处,确定要为一个或多个用户产生的触觉刺激。触觉刺激与传送给用户的内容相关。触觉刺激被确定成使得其依据位置信息而变化。位置信息可以描述一个或多个用户、用户的一个或多个身体部分、控制器(例如游戏控制器)、激励器、和/或其他物体的位置。位置信息可以指示出在绝对坐标系中的位置,相对于用户接口设备、内容发送部分、用户、和/或其他物体的位置。位置信息可以包括在操作38处确定的位置信息、预先配置和/或预先存储的位置信息,和/或其他位置信息。在一个实施例中,通过类似于刺激模块30(如上所述在图1中示出)或与其相同的刺激模块执行操作40。
在操作42处,为用户产生触觉刺激。在一个实施例中,通过类似于激励器16(如上所述在图1中示出)或与其相同的一个或多个激励器执行操作42。
虽然出于示例的目的,已经基于目前被视为很实际和优选的实施例详细描述了本发明,但是要理解的是,这种详细仅仅是出于该目的,并且本发明不限于所公开的实施例,而是相反,本发明旨在覆盖在所附权利要求的精神和范围内的更改和等价的布置。例如,要理解的是,本发明意图为尽可能地,任何实施例的一个或多个特征都可以与任何其他实施例的一个或多个特征组合。
Claims (29)
1.一种配置成给一个或多个用户提供触觉刺激的系统,所述系统包含:
用户接口设备,其具有内容发送部分,感知内容从所述内容发送部分被传送给一个或多个用户;
激励器,其被配置成产生与被传送给所述一个或多个用户的至少其中之一的所述感知内容相关的触觉刺激;和
一个或多个处理器,其被配置成执行计算机程序模块,所述计算机程序模块包含:
刺激模块,其被配置成确定要为所述一个或多个用户产生的触觉刺激,所述触觉刺激与被传送给所述一个或多个用户的所述感知内容相关,其中所述触觉刺激依据相对于所述用户接口设备的所述内容发送部分的位置而变化;和
激励器控制模块,其被配置成控制所述激励器以产生由所述刺激模块确定的所述触觉刺激。
2.根据权利要求1所述的系统,其中所述用户接口设备包括电子显示器,并且其中所述内容发送部分包括显示表面,视觉内容的视图从所述显示表面被传送给所述一个或多个用户。
3.根据权利要求2所述的系统,其中所述用户接口设备被配置成使得在所述显示表面处传送给所述一个或多个用户的内容的视图是三维视图。
4.根据权利要求3所述的系统,其中所述电子显示设备被配置成使得在所述显示表面处传送给所述一个或多个用户的所述三维视图以离散、预定的视角可见,并且其中所述刺激模块被配置成使得用于各自的离散、预定的视角的所述触觉刺激是彼此不同的。
5.根据权利要求4所述的系统,其中为所述各自的离散、预定的视角确定的触觉刺激中的差异反映在所述三维视图中呈现的视觉效果的方向性和方位,所述三维视图以与所述触觉刺激一致的离散、预定的视角被传送。
6.根据权利要求1所述的系统,进一步包含:
传感器,其被配置成产生传送信息的输出信号,所述信息与第一用户相对于所述用户接口设备的所述内容发送部分的位置有关;并且
其中,所述计算机程序模块进一步包含:
位置模块,其被配置成基于由所述传感器产生的所述输出信号而确定与所述第一用户相对于所述用户接口设备的所述内容发送部分的位置有关的信息,并且
其中,所述刺激模块被配置成使得所述触觉刺激是基于由所述位置模块做出的位置确定而被确定。
7.根据权利要求6所述的系统,其中所述传感器被配置成使得所述输出信号传送与和所述第一用户相关的手持式控制器的位置有关的信息。
8.根据权利要求7所述的系统,其中所述激励器被所述手持式控制器携载。
9.根据权利要求6所述的系统,其中所述传感器被配置成使得所述输出信号传送包括所述第一用户的图像,并且所述位置模块被配置成基于对所述图像的分析而确定与所述第一用户相对于所述内容发送部分的位置有关的信息。
10.根据权利要求6所述的系统,其中所述用户接口设备包括电子显示器,并且其中所述内容发送部分包括显示表面,视觉内容的视图从所述显示表面被传送给所述第一用户,其中所述位置模块被配置成使得与所述用户相对于所述显示表面的位置有关的信息包括相对于所述显示表面的视角,并且其中所述刺激模块被配置成使得所述触觉刺激依据相对于所述显示表面的视角而变化。
11.根据权利要求1所述的系统,其中所述用户接口设备包括电子显示器,并且其中所述内容发送部分包括显示表面,视觉内容的视图从所述显示表面被传送给所述用户,并且其中所述刺激模块被配置成使得所述触觉刺激依据相对于所述显示表面的视角而变化,与离开所述显示表面的距离无关。
12.根据权利要求1所述的系统,其中通过所述用户接口设备传送给所述用户的所述内容包括视频游戏的场景。
13.一种给用户提供触觉刺激的方法,所述方法包含:
在用户接口设备的内容发送部分给用户传送内容;
确定要为所述用户产生的与被传送给所述用户的所述内容相关的触觉刺激,其中所述触觉刺激依据相对于所述用户接口设备的所述内容发送部分的位置而变化;和
产生所述触觉刺激。
14.根据权利要求13所述的方法,其中在用户接口设备的内容发送部分给用户传送内容包括在显示表面处给所述用户显示所述内容的视图。
15.根据权利要求14所述的方法,其中在所述显示表面处给所述用户传送的所述内容的视图是三维视图。
16.根据权利要求15所述的方法,其中在所述显示表面处给所述用户传送的所述三维视图以离散、预定的视角可见,并且其中确定要为所述用户产生的触觉刺激包含为所述各自的离散、预定的视角确定单独的触觉刺激。
17.根据权利要求16所述的方法,其中为所述各自的离散、预定的视角确定的触觉刺激的差异反映在所述三维视图中呈现的视觉效果的方向性和方位,所述三维视图以与产生所述触觉刺激一致的离散、预定的视角被传送。
18.根据权利要求13所述的方法,进一步包含:
确定与所述用户相对于所述显示表面的所述位置有关的信息,和
其中确定与要为所述用户产生的与所述视频游戏相关的触觉刺激包含基于所述对位置的确定而确定所述触觉刺激。
19.根据权利要求18所述的方法,其中确定与所述用户的位置有关的信息包含确定与和所述用户相关的手持式控制器的位置有关的信息。
20.根据权利要求19所述的方法,其中所述触觉刺激由所述手持式控制器产生。
21.根据权利要求18所述的方法,其中确定与所述用户的位置有关的信息包含捕捉包括所述用户的图像,并且分析所捕捉的图像以确定与所述用户相对于所述显示表面的位置有关的信息。
22.根据权利要求18所述的方法,其中确定与所述用户的位置有关的信息包含确定所述用户相对于所述显示表面的视角,并且其中所确定的触觉刺激依据相对于所述显示表面的视角而变化。
23.根据权利要求13所述的方法,其中所确定的触觉刺激依据相对于所述显示表面的视角而变化,与离开所述显示表面的距离无关。
24.一种被配置成给用户提供触觉刺激的系统,所述系统包含:
用户接口设备,其具有内容发送部分,感知内容从所述内容发送部分被传送给用户;
激励器,其被配置成产生与被传送给所述用户的所述感知内容相关的触觉刺激,该触觉刺激被配置成由所述用户身体的第一部分引起;和
一个或多个处理器,其被配置成执行计算机程序模块,所述计算机程序模块包含:
刺激模块,其被配置成确定要为所述用户产生的触觉刺激,
所述触觉刺激与被传送给所述用户的所述感知内容相关,其中所述触觉刺激依据所述用户身体的第一部分相对于所述用户身体的第二部分的位置而变化;和
激励器控制模块,其被配置成控制所述激励器以产生由所述刺激模块确定的所述触觉刺激。
25.根据权利要求24所述的系统,其中所述计算机程序模块进一步包含位置模块,所述位置模块被配置成确定所述用户身体的第一部分相对于所述用户身体的第二部分的位置。
26.根据权利要求25所述的系统,进一步包含被配置成产生输出信号的传感器,所述输出信号传送与所述用户身体的第一部分相对于所述用户身体的第二部分的位置有关的信息,其中所述位置模块被配置成基于由所述传感器产生的所述输出信号确定所述用户身体的第一部分相对于所述用户身体的第二部分的位置。
27.根据权利要求24所述的系统,进一步包含被配置成携载所述激励器的游戏控制器。
28.根据权利要求27所述的系统,其中所述用户身体的第一部分包括所述用户携载所述游戏控制器的手。
29.根据权利要求28所述的系统,其中所述用户身体的第二部分包括所述用户的躯干。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/751,780 | 2010-03-31 | ||
US12/751,780 US8540571B2 (en) | 2010-03-31 | 2010-03-31 | System and method for providing haptic stimulus based on position |
PCT/US2011/030661 WO2011123599A1 (en) | 2010-03-31 | 2011-03-31 | System and method for providing haptic stimulus based on position |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610031251.5A Division CN105718053A (zh) | 2010-03-31 | 2011-03-31 | 基于位置提供触觉刺激的系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102822772A true CN102822772A (zh) | 2012-12-12 |
CN102822772B CN102822772B (zh) | 2016-02-17 |
Family
ID=44533501
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201180016371.3A Active CN102822772B (zh) | 2010-03-31 | 2011-03-31 | 基于位置提供触觉刺激的系统和方法 |
CN201610031251.5A Pending CN105718053A (zh) | 2010-03-31 | 2011-03-31 | 基于位置提供触觉刺激的系统和方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610031251.5A Pending CN105718053A (zh) | 2010-03-31 | 2011-03-31 | 基于位置提供触觉刺激的系统和方法 |
Country Status (6)
Country | Link |
---|---|
US (3) | US8540571B2 (zh) |
EP (2) | EP3392746A1 (zh) |
JP (3) | JP5893605B2 (zh) |
KR (3) | KR101914423B1 (zh) |
CN (2) | CN102822772B (zh) |
WO (1) | WO2011123599A1 (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104182036A (zh) * | 2013-05-24 | 2014-12-03 | 意美森公司 | 基于媒体内容和一个或多个外部参数提供触觉反馈的方法及装置 |
CN104417430A (zh) * | 2013-08-29 | 2015-03-18 | 范钦 | 一种腰带式驾驶安全触觉系统 |
CN104623897A (zh) * | 2013-11-14 | 2015-05-20 | 意美森公司 | 触觉空间化系统 |
CN104793737A (zh) * | 2014-01-16 | 2015-07-22 | 意美森公司 | 用于内容编创的系统和方法 |
CN105183145A (zh) * | 2014-06-09 | 2015-12-23 | 伊默森公司 | 用于通过音频轨道提供触觉效果的触觉设备和方法 |
CN105677014A (zh) * | 2014-12-04 | 2016-06-15 | 伊默森公司 | 用于控制触觉信号的系统及方法 |
CN105677017A (zh) * | 2015-12-28 | 2016-06-15 | 联想(北京)有限公司 | 一种控制方法、键盘、电子设备及电子装置 |
US9619029B2 (en) | 2013-11-14 | 2017-04-11 | Immersion Corporation | Haptic trigger control system |
CN107924236A (zh) * | 2015-09-08 | 2018-04-17 | 索尼公司 | 信息处理装置、方法和计算机程序 |
CN108431737A (zh) * | 2016-01-07 | 2018-08-21 | 标致雪铁龙汽车股份有限公司 | 控制构件 |
US10185396B2 (en) | 2014-11-12 | 2019-01-22 | Immersion Corporation | Haptic trigger modification system |
CN109416584A (zh) * | 2016-07-07 | 2019-03-01 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN109395307A (zh) * | 2017-08-17 | 2019-03-01 | 李硕 | 一种基于视觉激励的跳远垫 |
CN111078015A (zh) * | 2013-03-15 | 2020-04-28 | 意美森公司 | 可佩戴触觉设备 |
CN111712779A (zh) * | 2018-02-20 | 2020-09-25 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN112272814A (zh) * | 2018-06-19 | 2021-01-26 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
CN112840295A (zh) * | 2018-10-19 | 2021-05-25 | 索尼公司 | 信息处理器、信息处理方法和程序 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013857B2 (en) * | 2011-12-21 | 2018-07-03 | Qualcomm Incorporated | Using haptic technologies to provide enhanced media experiences |
JP6541292B2 (ja) | 2012-02-15 | 2019-07-10 | イマージョン コーポレーションImmersion Corporation | プリミティブを用いた高解像度ハプティック効果生成 |
WO2013136287A1 (en) * | 2012-03-15 | 2013-09-19 | Motorika Limited | Gyroscopic apparatuses and methods of using same |
US20130260886A1 (en) * | 2012-03-29 | 2013-10-03 | Adam Smith | Multi-sensory Learning Game System |
DE102012208355A1 (de) * | 2012-05-18 | 2013-11-21 | Robert Bosch Gmbh | Anordnung und Verfahren zum Erzeugen einer Tastsinnreizung eines Benutzers |
US8947387B2 (en) * | 2012-12-13 | 2015-02-03 | Immersion Corporation | System and method for identifying users and selecting a haptic response |
WO2014117125A1 (en) * | 2013-01-28 | 2014-07-31 | Bayer Materialscience Llc | Electroactive polymer actuators and feedback system therefor |
US9833697B2 (en) * | 2013-03-11 | 2017-12-05 | Immersion Corporation | Haptic sensations as a function of eye gaze |
EP3211511A1 (en) * | 2013-03-15 | 2017-08-30 | Immersion Corporation | Programmable haptic peripheral |
US9639158B2 (en) * | 2013-11-26 | 2017-05-02 | Immersion Corporation | Systems and methods for generating friction and vibrotactile effects |
US10067566B2 (en) * | 2014-03-19 | 2018-09-04 | Immersion Corporation | Systems and methods for a shared haptic experience |
US9958829B2 (en) * | 2014-05-07 | 2018-05-01 | International Business Machines Corporation | Sensory holograms |
US9588586B2 (en) * | 2014-06-09 | 2017-03-07 | Immersion Corporation | Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity |
US9174134B1 (en) | 2014-11-12 | 2015-11-03 | Immersion Corporation | Peripheral device with haptic diminishment prevention component |
US10427034B2 (en) * | 2014-12-17 | 2019-10-01 | Igt Canada Solutions Ulc | Contactless tactile feedback on gaming terminal with 3D display |
US10403084B2 (en) * | 2014-12-17 | 2019-09-03 | Igt Canada Solutions Ulc | Contactless tactile feedback on gaming terminal with 3D display |
US10195525B2 (en) * | 2014-12-17 | 2019-02-05 | Igt Canada Solutions Ulc | Contactless tactile feedback on gaming terminal with 3D display |
US10254838B2 (en) | 2014-12-23 | 2019-04-09 | Immersion Corporation | Architecture and communication protocol for haptic output devices |
US10613629B2 (en) | 2015-03-27 | 2020-04-07 | Chad Laurendeau | System and method for force feedback interface devices |
EP3099030A1 (en) * | 2015-05-26 | 2016-11-30 | Thomson Licensing | Method and device for encoding/decoding a packet comprising data representative of a haptic effect |
EP3118723A1 (en) | 2015-07-13 | 2017-01-18 | Thomson Licensing | Method and apparatus for providing haptic feedback and interactivity based on user haptic space (hapspace) |
WO2017147572A1 (en) * | 2016-02-25 | 2017-08-31 | Cirque Corporation | Touchpad system with multiple tracking methods: mechanical force positional sensor integrated with capacitive location tracking |
JP6650890B2 (ja) * | 2017-01-06 | 2020-02-19 | 任天堂株式会社 | ゲームシステム、ゲームプログラム、情報処理装置およびゲーム制御方法 |
US20180232051A1 (en) * | 2017-02-16 | 2018-08-16 | Immersion Corporation | Automatic localized haptics generation system |
US10748437B2 (en) | 2017-08-14 | 2020-08-18 | Parker Appleton LYNCH | Learning aid apparatus and system |
CN109966735B (zh) * | 2019-03-02 | 2023-05-30 | 黄鑫 | 一种触觉仿真游戏手柄系统及触觉仿真方法 |
US11282281B2 (en) * | 2019-11-13 | 2022-03-22 | At&T Intellectual Property I, L.P. | Activation of extended reality actuators based on content analysis |
EP4300264A1 (en) * | 2022-07-01 | 2024-01-03 | Go Touch VR | Method and apparatus of signaling/parsing haptic data |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1231753A (zh) * | 1996-08-14 | 1999-10-13 | 挪拉赫梅特·挪利斯拉莫维奇·拉都色夫 | 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统 |
WO2005116809A2 (en) * | 2004-05-24 | 2005-12-08 | 3D For All Számítástechnikai Fejlesztö Kft. | System and method for operating in virtual 3d space and system for selecting an operation via a visualizing system |
CN1714388A (zh) * | 2002-11-19 | 2005-12-28 | 摩托罗拉公司(在特拉华州注册的公司) | 以身体为中心的虚拟交互设备与方法 |
EP1916592A2 (en) * | 2006-10-23 | 2008-04-30 | Canon Kabushiki Kaisha | Haptic feedback apparatus and method |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
Family Cites Families (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3391071B2 (ja) * | 1993-12-27 | 2003-03-31 | 株式会社セガ | ゲーム機 |
AU3329595A (en) * | 1994-08-18 | 1996-03-14 | Interval Research Corporation | Content-based haptic input device for video |
WO1997020305A1 (en) | 1995-11-30 | 1997-06-05 | Virtual Technologies, Inc. | Tactile feedback man-machine interface device |
US6028593A (en) * | 1995-12-01 | 2000-02-22 | Immersion Corporation | Method and apparatus for providing simulated physical interactions within computer generated environments |
US6084587A (en) * | 1996-08-02 | 2000-07-04 | Sensable Technologies, Inc. | Method and apparatus for generating and interfacing with a haptic virtual reality environment |
US6042555A (en) * | 1997-05-12 | 2000-03-28 | Virtual Technologies, Inc. | Force-feedback interface device for the hand |
US20020035995A1 (en) * | 1997-07-22 | 2002-03-28 | Jurgen G. Schmidt | Method and apparatus for inducing alternating tactile stimulations |
JPH11300049A (ja) * | 1998-04-20 | 1999-11-02 | Hitachi Ltd | シューティングゲーム装置 |
JP2000033184A (ja) * | 1998-05-14 | 2000-02-02 | Masanobu Kujirada | 全身動作入力型のゲ―ム及びイベント装置 |
US6184868B1 (en) * | 1998-09-17 | 2001-02-06 | Immersion Corp. | Haptic feedback control devices |
AU7725600A (en) * | 1999-09-28 | 2001-04-30 | Immersion Corporation | Controlling haptic sensations for vibrotactile feedback interface devices |
JP2001104641A (ja) * | 1999-10-13 | 2001-04-17 | Namco Ltd | ゲーム装置 |
JP2001104642A (ja) * | 1999-10-13 | 2001-04-17 | Namco Ltd | ゲーム装置 |
US6924787B2 (en) * | 2000-04-17 | 2005-08-02 | Immersion Corporation | Interface for controlling a graphical image |
JP2001356875A (ja) * | 2000-06-13 | 2001-12-26 | Toshiba Corp | ポインタ表示システム |
JP2002123840A (ja) * | 2000-10-17 | 2002-04-26 | Nippon Telegr & Teleph Corp <Ntt> | 臨場感型仮想現実提供処理方法および装置 |
US7409441B2 (en) * | 2001-05-18 | 2008-08-05 | Sony Computer Entertainment Inc. | Display apparatus for accessing desired web site |
JP2003085590A (ja) * | 2001-09-13 | 2003-03-20 | Nippon Telegr & Teleph Corp <Ntt> | 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体 |
JP3466176B2 (ja) * | 2001-12-21 | 2003-11-10 | コナミ株式会社 | ゲーム方法、ゲームプログラム、ゲーム装置及びゲームシステム |
US9682319B2 (en) * | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
EP1533678A1 (en) * | 2003-11-24 | 2005-05-25 | Sony International (Europe) GmbH | Physical feedback channel for entertaining or gaming environments |
JP4484065B2 (ja) * | 2004-06-25 | 2010-06-16 | 三星モバイルディスプレイ株式會社 | 発光表示装置,発光表示装置の駆動装置及び発光表示装置の駆動方法 |
US7376903B2 (en) * | 2004-06-29 | 2008-05-20 | Ge Medical Systems Information Technologies | 3D display system and method |
CN1989482A (zh) | 2004-07-23 | 2007-06-27 | 皇家飞利浦电子股份有限公司 | 指示设备和用于项目定位和/或选择辅助的方法 |
EP1851606A1 (en) * | 2005-02-24 | 2007-11-07 | Nokia Corporation | Motion-input device for a computing terminal and method of its operation |
JP2006324952A (ja) * | 2005-05-19 | 2006-11-30 | Hitachi Ltd | テレビジョン装置 |
JP3998151B2 (ja) * | 2005-06-27 | 2007-10-24 | 株式会社タイトー | ビデオ式ガンゲーム装置 |
US7280097B2 (en) * | 2005-10-11 | 2007-10-09 | Zeetoo, Inc. | Human interface input acceleration system |
NL1030440C2 (nl) * | 2005-11-16 | 2007-05-21 | Univ Twente | Bewegingsvolgsysteem. |
JP2007156561A (ja) * | 2005-11-30 | 2007-06-21 | Canon Inc | 複合現実感提示方法および複合現実感提示システム |
KR100812624B1 (ko) * | 2006-03-02 | 2008-03-13 | 강원대학교산학협력단 | 입체영상 기반 가상현실장치 |
JP4982877B2 (ja) * | 2006-03-23 | 2012-07-25 | 国立大学法人名古屋大学 | 触覚ディスプレイ装置、多自由度アクチュエータ、及び、ハンドリング装置 |
JP5136742B2 (ja) * | 2006-10-13 | 2013-02-06 | 株式会社セガ | 電子遊戯装置、電子遊戯用制御方法およびゲームプログラム |
JP4146874B2 (ja) * | 2006-12-22 | 2008-09-10 | 株式会社コナミデジタルエンタテインメント | シューティング対戦用玩具 |
US8269834B2 (en) * | 2007-01-12 | 2012-09-18 | International Business Machines Corporation | Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream |
WO2009020080A1 (ja) * | 2007-08-03 | 2009-02-12 | Camelot Co., Ltd. | ゲーム装置、ゲームプログラム及びオブジェクトの操作方法 |
WO2009031646A1 (ja) * | 2007-09-07 | 2009-03-12 | Konami Digital Entertainment Co., Ltd. | 画像処理装置、ゲーム装置およびコンピュータプログラム |
JP4739302B2 (ja) * | 2007-09-14 | 2011-08-03 | 独立行政法人科学技術振興機構 | 貫通触感覚提示装置 |
US20090088659A1 (en) * | 2007-09-27 | 2009-04-02 | Immersion Corporation | Biological Sensing With Haptic Feedback |
US8098235B2 (en) * | 2007-09-28 | 2012-01-17 | Immersion Corporation | Multi-touch device having dynamic haptic effects |
US20090098519A1 (en) * | 2007-10-10 | 2009-04-16 | Jennifer Byerly | Device and method for employment of video games to provide physical and occupational therapy and measuring and monitoring motor movements and cognitive stimulation and rehabilitation |
US9986293B2 (en) * | 2007-11-21 | 2018-05-29 | Qualcomm Incorporated | Device access control |
US20090135133A1 (en) * | 2007-11-26 | 2009-05-28 | Kunzler Patrik A | 3D Motion Control System and Method |
US8803797B2 (en) * | 2008-01-18 | 2014-08-12 | Microsoft Corporation | Input through sensing of user-applied forces |
US8226479B2 (en) * | 2008-04-07 | 2012-07-24 | Disney Enterprises, Inc. | Group decision haptic feedback systems and methods |
JP2009276996A (ja) * | 2008-05-14 | 2009-11-26 | Canon Inc | 情報処理装置、情報処理方法 |
JP2010009558A (ja) * | 2008-05-28 | 2010-01-14 | Oki Semiconductor Co Ltd | 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置 |
DE102008034200A1 (de) * | 2008-07-21 | 2010-01-28 | Astrium Gmbh | Verfahren und Vorrichtung zum Informieren eines Nutzers über die Lage einer Informationsquelle in Bezug auf die Nutzerposition |
KR101495172B1 (ko) * | 2008-07-29 | 2015-02-24 | 엘지전자 주식회사 | 이동단말기 및 그의 이미지 제어방법 |
JP4697279B2 (ja) * | 2008-09-12 | 2011-06-08 | ソニー株式会社 | 画像表示装置および検出方法 |
US9399167B2 (en) * | 2008-10-14 | 2016-07-26 | Microsoft Technology Licensing, Llc | Virtual space mapping of a variable activity region |
US20100128112A1 (en) * | 2008-11-26 | 2010-05-27 | Samsung Electronics Co., Ltd | Immersive display system for interacting with three-dimensional content |
US8953029B2 (en) * | 2009-05-08 | 2015-02-10 | Sony Computer Entertainment America Llc | Portable device interaction via motion sensitive controller |
JP5638797B2 (ja) * | 2009-12-25 | 2014-12-10 | 株式会社カプコン | ゲーム装置およびゲームプログラム |
-
2010
- 2010-03-31 US US12/751,780 patent/US8540571B2/en active Active
-
2011
- 2011-03-31 KR KR1020187000989A patent/KR101914423B1/ko active IP Right Grant
- 2011-03-31 KR KR1020187030936A patent/KR20180119704A/ko active IP Right Grant
- 2011-03-31 CN CN201180016371.3A patent/CN102822772B/zh active Active
- 2011-03-31 WO PCT/US2011/030661 patent/WO2011123599A1/en active Application Filing
- 2011-03-31 CN CN201610031251.5A patent/CN105718053A/zh active Pending
- 2011-03-31 JP JP2013502828A patent/JP5893605B2/ja active Active
- 2011-03-31 EP EP18176378.0A patent/EP3392746A1/en not_active Withdrawn
- 2011-03-31 EP EP11718538.9A patent/EP2553547B1/en active Active
- 2011-03-31 KR KR1020127028473A patent/KR20130040853A/ko not_active Application Discontinuation
-
2013
- 2013-09-23 US US13/998,001 patent/US9987555B2/en active Active
-
2016
- 2016-02-24 JP JP2016033055A patent/JP6368329B2/ja active Active
-
2018
- 2018-02-26 JP JP2018031766A patent/JP2018125007A/ja active Pending
- 2018-05-07 US US15/972,353 patent/US20180250590A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1231753A (zh) * | 1996-08-14 | 1999-10-13 | 挪拉赫梅特·挪利斯拉莫维奇·拉都色夫 | 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统 |
CN1714388A (zh) * | 2002-11-19 | 2005-12-28 | 摩托罗拉公司(在特拉华州注册的公司) | 以身体为中心的虚拟交互设备与方法 |
WO2005116809A2 (en) * | 2004-05-24 | 2005-12-08 | 3D For All Számítástechnikai Fejlesztö Kft. | System and method for operating in virtual 3d space and system for selecting an operation via a visualizing system |
EP1916592A2 (en) * | 2006-10-23 | 2008-04-30 | Canon Kabushiki Kaisha | Haptic feedback apparatus and method |
US20100053151A1 (en) * | 2008-09-02 | 2010-03-04 | Samsung Electronics Co., Ltd | In-line mediation for manipulating three-dimensional content on a display device |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111078015A (zh) * | 2013-03-15 | 2020-04-28 | 意美森公司 | 可佩戴触觉设备 |
CN104182036A (zh) * | 2013-05-24 | 2014-12-03 | 意美森公司 | 基于媒体内容和一个或多个外部参数提供触觉反馈的方法及装置 |
US10928910B2 (en) | 2013-05-24 | 2021-02-23 | Immersion Corporation | Method and apparatus to provide haptic feedback based on media content and one or more external parameters |
CN110502113A (zh) * | 2013-05-24 | 2019-11-26 | 意美森公司 | 基于媒体内容和外部参数提供触觉反馈的方法及装置 |
US10429934B2 (en) | 2013-05-24 | 2019-10-01 | Immersion Corporation | Method and apparatus to provide haptic feedback based on media content and one or more external parameters |
CN104417430A (zh) * | 2013-08-29 | 2015-03-18 | 范钦 | 一种腰带式驾驶安全触觉系统 |
CN104623897B (zh) * | 2013-11-14 | 2017-09-12 | 意美森公司 | 触觉空间化系统 |
US9619029B2 (en) | 2013-11-14 | 2017-04-11 | Immersion Corporation | Haptic trigger control system |
CN104623897A (zh) * | 2013-11-14 | 2015-05-20 | 意美森公司 | 触觉空间化系统 |
CN107519642A (zh) * | 2013-11-14 | 2017-12-29 | 意美森公司 | 触觉空间化系统 |
US9891710B2 (en) | 2013-11-14 | 2018-02-13 | Immersion Corporation | Haptic spatialization system |
US10353471B2 (en) | 2013-11-14 | 2019-07-16 | Immersion Corporation | Haptic spatialization system |
US10416770B2 (en) | 2013-11-14 | 2019-09-17 | Immersion Corporation | Haptic trigger control system |
CN104793737A (zh) * | 2014-01-16 | 2015-07-22 | 意美森公司 | 用于内容编创的系统和方法 |
US10437341B2 (en) | 2014-01-16 | 2019-10-08 | Immersion Corporation | Systems and methods for user generated content authoring |
CN105183145B (zh) * | 2014-06-09 | 2020-03-06 | 伊默森公司 | 用于通过音频轨道提供触觉效果的触觉设备和方法 |
CN105183145A (zh) * | 2014-06-09 | 2015-12-23 | 伊默森公司 | 用于通过音频轨道提供触觉效果的触觉设备和方法 |
US10620706B2 (en) | 2014-11-12 | 2020-04-14 | Immersion Corporation | Haptic trigger modification system |
US10185396B2 (en) | 2014-11-12 | 2019-01-22 | Immersion Corporation | Haptic trigger modification system |
CN105677014A (zh) * | 2014-12-04 | 2016-06-15 | 伊默森公司 | 用于控制触觉信号的系统及方法 |
CN107924236A (zh) * | 2015-09-08 | 2018-04-17 | 索尼公司 | 信息处理装置、方法和计算机程序 |
CN105677017B (zh) * | 2015-12-28 | 2019-04-26 | 联想(北京)有限公司 | 一种控制方法、键盘、电子设备及电子装置 |
CN105677017A (zh) * | 2015-12-28 | 2016-06-15 | 联想(北京)有限公司 | 一种控制方法、键盘、电子设备及电子装置 |
CN108431737A (zh) * | 2016-01-07 | 2018-08-21 | 标致雪铁龙汽车股份有限公司 | 控制构件 |
CN108431737B (zh) * | 2016-01-07 | 2021-07-27 | 标致雪铁龙汽车股份有限公司 | 控制构件 |
CN109416584A (zh) * | 2016-07-07 | 2019-03-01 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN109395307A (zh) * | 2017-08-17 | 2019-03-01 | 李硕 | 一种基于视觉激励的跳远垫 |
CN109395307B (zh) * | 2017-08-17 | 2024-04-26 | 李硕 | 一种基于视觉激励的跳远垫 |
CN111712779A (zh) * | 2018-02-20 | 2020-09-25 | 索尼公司 | 信息处理装置、信息处理方法和程序 |
CN112272814A (zh) * | 2018-06-19 | 2021-01-26 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
CN112272814B (zh) * | 2018-06-19 | 2024-09-20 | 索尼公司 | 信息处理设备、信息处理方法及程序 |
CN112840295A (zh) * | 2018-10-19 | 2021-05-25 | 索尼公司 | 信息处理器、信息处理方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
JP2016129048A (ja) | 2016-07-14 |
EP3392746A1 (en) | 2018-10-24 |
EP2553547A1 (en) | 2013-02-06 |
US20140043228A1 (en) | 2014-02-13 |
KR20180008890A (ko) | 2018-01-24 |
US8540571B2 (en) | 2013-09-24 |
EP2553547B1 (en) | 2018-06-13 |
KR101914423B1 (ko) | 2018-11-01 |
JP6368329B2 (ja) | 2018-08-01 |
WO2011123599A1 (en) | 2011-10-06 |
US20180250590A1 (en) | 2018-09-06 |
KR20180119704A (ko) | 2018-11-02 |
US9987555B2 (en) | 2018-06-05 |
JP5893605B2 (ja) | 2016-03-23 |
CN105718053A (zh) | 2016-06-29 |
KR20130040853A (ko) | 2013-04-24 |
JP2013524351A (ja) | 2013-06-17 |
CN102822772B (zh) | 2016-02-17 |
US20110244963A1 (en) | 2011-10-06 |
JP2018125007A (ja) | 2018-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102822772B (zh) | 基于位置提供触觉刺激的系统和方法 | |
CN105278676A (zh) | 基于视角和/或接近度修改触觉强度的可编程触觉设备和方法 | |
US20190329136A1 (en) | Simulation system, processing method, and information storage medium | |
US10996757B2 (en) | Methods and apparatus for generating haptic interaction for virtual reality | |
US20170148339A1 (en) | Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same | |
CN109475774A (zh) | 虚拟现实环境中的视图位置处的观众管理 | |
US20170150108A1 (en) | Autostereoscopic Virtual Reality Platform | |
JP2019511781A (ja) | 仮想現実(vr)環境におけるvrユーザの観客ビュー追跡 | |
CN106997238A (zh) | 用于修改触觉效果以补偿音频‑触觉干扰的可编程触觉装置和方法 | |
CN104706499A (zh) | 上肢脑神经康复训练系统及训练方法 | |
JP7355006B2 (ja) | 情報処理装置、情報処理方法、および記録媒体 | |
US9981182B2 (en) | Systems and methods for providing immersive game feedback using haptic effects | |
WO2007100204A1 (en) | Stereovision-based virtual reality device | |
US20170055596A1 (en) | Smart Clothing for Simulated Touch and Concussive Force | |
US11169607B1 (en) | Haptic-feedback apparatuses that utilize linear motion for creating haptic cues | |
CN105653020A (zh) | 穿越时空的方法和装置以及使用其的眼镜或头盔 | |
WO2015196877A1 (en) | Autostereoscopic virtual reality platform | |
Olickel et al. | GooseBumps: towards sensory substitution using servo motors | |
JP6810325B2 (ja) | ゲーム制御装置、ゲームシステム、及びプログラム | |
GB2627759A (en) | An entertainment system, a method and a computer program | |
KR20130119821A (ko) | 곡선 트랙 게임용 인터페이스 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C53 | Correction of patent of invention or patent application | ||
CB02 | Change of applicant information |
Address after: American California Applicant after: IMMERSION CORPORATION Address before: American California Applicant before: Immersion Corp. |
|
COR | Change of bibliographic data |
Free format text: CORRECT: APPLICANT; FROM: IMMERSION CORP. TO: YIMEISEN CO., LTD. |
|
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |