CN102822772B - 基于位置提供触觉刺激的系统和方法 - Google Patents

基于位置提供触觉刺激的系统和方法 Download PDF

Info

Publication number
CN102822772B
CN102822772B CN201180016371.3A CN201180016371A CN102822772B CN 102822772 B CN102822772 B CN 102822772B CN 201180016371 A CN201180016371 A CN 201180016371A CN 102822772 B CN102822772 B CN 102822772B
Authority
CN
China
Prior art keywords
user
haptic stimulus
visual angle
relevant
display surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201180016371.3A
Other languages
English (en)
Other versions
CN102822772A (zh
Inventor
D·A·格兰特
J·M·克鲁兹-埃尔南德斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Immersion Corp
Original Assignee
Immersion Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Immersion Corp filed Critical Immersion Corp
Publication of CN102822772A publication Critical patent/CN102822772A/zh
Application granted granted Critical
Publication of CN102822772B publication Critical patent/CN102822772B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B06GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS IN GENERAL
    • B06BMETHODS OR APPARATUS FOR GENERATING OR TRANSMITTING MECHANICAL VIBRATIONS OF INFRASONIC, SONIC, OR ULTRASONIC FREQUENCY, e.g. FOR PERFORMING MECHANICAL WORK IN GENERAL
    • B06B1/00Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency
    • B06B1/02Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy
    • B06B1/06Methods or apparatus for generating mechanical vibrations of infrasonic, sonic, or ultrasonic frequency making use of electrical energy operating with piezoelectric effect or with electrostriction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10NELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10N30/00Piezoelectric or electrostrictive devices
    • H10N30/20Piezoelectric or electrostrictive devices with electrical input and mechanical output, e.g. functioning as actuators or vibrators
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1037Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals being specially adapted for converting control signals received from the game device into a haptic signal, e.g. using force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/013Force feedback applied to a game

Abstract

本公开涉及基于位置提供触觉刺激的系统和方法。为了给一个或多个用户传送其他感知内容而产生与其他感知内容相关的触觉刺激。这可以增强通过内容提供给一个或多个用户的体验。感知内容可以包括视频内容、视频游戏内容、音频内容、和/或其他内容。触觉刺激可以基于位置信息而变化。这种位置信息可以包括与一个或多个用户的位置、控制器(例如游戏控制器)的位置、发送触觉刺激的激励器的位置有关的信息,和/或其他位置信息。

Description

基于位置提供触觉刺激的系统和方法
相关申请
本申请要求2010年3月31日提交的、标题为“SystemAndMethodForProvidingHapticStimulusBasedOnPosition(基于位置提供触觉刺激的系统和方法)”的美国专利申请No.12/751,780的优先权,该申请的全部内容通过引用并入本申请。
技术领域
本申请涉及基于位置给用户提供触觉刺激。
背景技术
结合视觉和/或音频内容给用户提供刺激的系统是已知的。一般理解,触觉刺激可以增强与内容相关的用户体验的一个或多个方面。然而,传统系统不基于与用户的位置或用户的身体部分有关的位置信息而使触觉刺激变化。而是,不考虑用户的位置、产生触觉反馈的激励器(actuator)的位置、传送视觉和/或音频内容的用户接口设备的位置,和/或其他位置,来确定和产生触觉反馈。
发明内容
本发明的一方面涉及一种配置成给一个或多个用户提供触觉刺激的系统。在一个实施例中,系统包含用户接口、激励器和一个或多个处理器。用户接口设备具有内容发送部分,感知内容从内容发送部分传送给一个或多个用户。激励器被配置成产生与被传送给一个或多个用户的至少其中之一的感知内容相关的触觉刺激。一个或多个处理器被配置成执行计算机程序模块。计算机程序模块包含刺激模块,和激励器模块。刺激模块被配置成确定要为一个或多个用户产生的触觉刺激,该刺激与被传送给一个或多个用户的感知内容相关,其中触觉刺激依据相对于用户接口设备的内容发送部分的位置而变化。激励器控制模块被配置成控制激励器以产生由刺激模块确定的触觉刺激。
本发明的另一方面涉及一种给用户提供触觉刺激的方法。在一个实施例中,该方法包含在用户接口设备的内容发送部分给用户传送内容;确定要为用户产生的与传送给用户的内容相关的触觉刺激,其中触觉刺激依据相对于用户接口设备的内容发送部分的位置而变化;并且产生触觉刺激。
本发明的又一方面涉及一种配置成给用户提供触觉刺激的系统。在一个实施例中,系统包含用户接口设备、激励器,和一个或多个处理器。用户接口设备具有内容发送部分,感知内容从内容发送部分传送给用户。激励器被配置成产生与被传送给用户的感知内容相关的触觉刺激,该触觉刺激被配置成由用户身体的第一部分引起。一个或多个处理器被配置成执行计算机程序模块,计算机程序模块包含刺激模块和激励器控制模块。刺激模块被配置成确定要为用户产生的触觉刺激,该触觉刺激与被传送给用户的感知内容相关,其中触觉刺激依据用户身体的第一部分相对于用户身体的第二部分的位置而变化。激励器控制模块被配置成控制激励器以产生由刺激模块确定的触觉刺激。
参考附图,考虑了下面的描述和所附权利要求之后,本发明的这些和其他目的、特征和特性,以及操作方法和结构的相关元件的功能,和制造的部件和节约性的组合,都将变得更加明白,全部附图形成本说明书的一部分,其中在不同的附图中相同的附图标记指定相应的部件。然而,要清楚理解的是,附图仅仅是出于示例和描述的目的,并非旨在作为限制本发明的限定。正如在说明书和权利要求中使用的那样,单数形式的“一个”、“所述”和“该”包括复数对象,除非内容清楚地另有所指。
附图说明
图1示出根据本发明的一个或多个实施例的被配置成提供与其他感知内容相关的触觉刺激的系统。
图2示出根据本发明的一个或多个实施例的提供与其他感知内容相关的触觉刺激的方法。
具体实施方式
图1示出配置成提供与被传送给一个或多个用户的其他感知内容相关的触觉刺激的系统10。这可以增强通过内容提供给一个或多个用户的体验。感知内容可以包括视频内容、视频游戏内容,音频内容、三维内容,和/或其他内容。系统10被配置成基于位置信息使与其他感知内容相关的触觉刺激变化。这种位置信息可以包括与一个或多个用户的位置、控制器(例如游戏控制器)的位置、发送触觉刺激的激励器的位置有关的信息,和/或其他位置信息。在一个实施例中,系统10包括一个或多个用户接口设备12,用户接口设备12包含内容发送部分14、一个或多个激励器16、一个或多个传感器18、一个或多个控制器20、电子储存器22、一个或多个处理器24、和/或其他组件。
用户接口设备12被配置成给一个或多个用户提供感知内容。感知内容通过用户接口设备12的内容发送部分14被传送给一个或多个用户。在一个实施例中,用户接口设备12被配置成在给用户传送内容期间位于固定位置,并且不被移动和/或由用户随身携载。这不旨在作为一种限制,因为本文描述的一个或多个原理可以被延伸到用户接口设备是可移动/便携的系统(例如便携式游戏系统、智能电话等)。在一个实施例中,用户接口设备12包括电子显示器。在这个实施例中,电子显示器的显示表面起到用户接口设备12的内容发送部分14的功能。在一个实施例中,用户接口设备12包括音频扬声器。在这个实施例中,从用户接口设备12发射声音的区域起到内容发送部分14的功能。在一个实施例中,用户接口设备12包括电子显示器和音频扬声器。
由用户接口设备12提供给用户的感知内容可以包括视频,诸如电影、电视和/或其他视频。由用户接口设备12提供给用户的感知内容可以包括与视频游戏、虚拟世界、仿真、和/或其他计算机产生的图形相关的(动态和/或静态的)图形。在用户接口设备12给用户传送视频、计算机产生的图形、和/或其他视觉内容的实施例中,用户接口设备12可以进一步给用户提供与视觉内容相关的音频内容。例如,电影或电视秀、视频游戏、或其他类型的视觉内容,可以与音轨相关,音轨与视觉内容同时被传送给用户。在一个实施例中,用户接口设备12被配置成给用户发送不伴随视觉内容的音频内容。
在用户接口设备12是电子显示器的一个实施例中,用户接口设备12能够通过起到内容发送部分14功能的显示表面给用户传送内容的三维视图。三维视图可以包括视频内容、计算机产生的图像、和/或其他视觉内容的三维视图。通过非限制性示例,在这个实施例中,用户接口设备12可以包括采用活性3D玻璃(active3Dglasses)、透镜显示器(lenticulardisplay)、和/或其他类型的三维显示器的一个或多个系统。
激励器16被配置成为用户产生触觉刺激。同样,在通过用户接口设备12给用户传送感知内容期间,至少一些激励器16接触用户,或者接触与用户接触的物体。通过非限制性示例,一个或多个激励器16可以位于支撑用户的地板表面内或地板表面上(例如安装在地板内,被放在地板上的垫子携载等),一个或多个激励器16可以通过用户佩带的矫形器(brace)或其他可佩带物品来携载,一个或多个激励器16可以通过被用户携载的物体来携载(例如被控制器20携载),一个或多个激励器16可以通过用户坐在或躺在其上的装备来携载,和/或一个或多个激励器16可以通过接触用户的其他物体携载,或者布置在接触用户的其他物体之内或之上。
正如本文所使用的那样,术语“触觉刺激”指的是施加给用户的触知反馈。例如,这种反馈可以包括由激励器16和/或激励器16和用户都接触的物体物理施加给用户的一个或多个轻微振动、力和/或动作。还可以将超声能量形式、或能量的其他形式的非接触式触知反馈实施为触觉刺激。激励器16可以包括被配置成产生这种反馈以便施加给用户的任何设备。例如,激励器16可以包括一个或多个压电激励器、气动激励器、偏心块(eccentricmass)激励器、电活性(electroactive)聚合体激励器、静电表面激励器、形状记忆合金,和/或其他激励器。
将意识到的是,虽然在图1中将激励器16示出为单个实体,但这仅仅是出于示例性的目的。在一个实施例中,激励器16包括多个激励器。多个激励器可以被包括在单个物体或设备中、被其携载、和/或与其接触。或者,多个激励器可以包括被包括在多个单独的物体或设备中、被其携载、和/或与其接触的激励器。
传感器18被配置成产生输出信号,输出信号传送与位置有关的信息。在一个实施例中,输出信号传送与至少一个用户、激励器16(例如,如果一个或多个激励器16被包括在可移动物体中或者被可移动物体携载)、控制器20、和/或其他物体之中的一个或多个的位置有关的信息。通过传感器18的输出信号传送的信息的所用于的位置可以包括绝对坐标系统中的一个或多个位置,相对于用户接口设备12的位置(例如相对于内容发送部分14的位置),激励器16和/或传感器18之中的一个或两个相对于用户和/或用户的身体部分的位置,用户相对于彼此的位置,和/或相对于其他物体的位置。
产生传送与位置相关信息的输出信号的多种传感器的任何一种的一个或多个可以被实施成系统10中的传感器18。通过非限制性示例,传感器18可以包括一个或多个加速度计、陀螺仪、数字式罗盘、超声回声定位传感器、光学距离或近程式传感器、成像传感器(例如视频或静态成像)、射频传感器,和/或其他传感器。将意识到的是,传感器18的输出信号可以直接传送位置信息,诸如距离、方位、角度,和/或其他位置信息。传感器18的输出信号可以间接传送位置信息。例如,传感器18可以传送与位置的时间导数有关的信息(例如加速度),可以确定来自哪一位置的图像,和/或可以确定来自哪一位置的其他类型的信息。输出信号可以是来自传感器18“原始”输出,或者传感器18可以包括用于提供某些初步处理的能力。
在一个实施例中,传感器18包括通过系统10的其他组件(例如激励器16、传感器18等)携载的一个或多个传感器。在一个实施例中,传感器18包括使用期间不被移动的一个或多个传感器。在一个实施例中,传感器18包括被提供为可由用户佩带的单独的组件的一个或多个传感器。
控制器20被配置成相对于系统10提供用户交互和控制。在一个实施例中,控制器20包括由用户实施的一个或多个游戏控制器,以在视频游戏、虚拟世界和/或仿真中操纵虚拟特性和/或对象。在一个实施例中,控制器20包括被配置成给用户提供对系统10中的一个或多个其他组件的配置和/或设置进行控制(例如对用户接口设备12远程控制)的一个或多个电子控制器。控制器20可以包括手持式控制器,与手持式组件协同工作的照相机控制器(例如SonyEye和运动控制器),和/或非手持的控制器(例如飞行仿真控制、驱动仿真控制等)。
在一个实施例中,电子储存器22包含电子地存储信息的电子储存介质。电子储存器22的电子储存介质可以包括与系统10集成(即基本不可拆卸地)提供的一个或两个系统储存器,和/或经由例如端口(例如通用串行总线(USB)端口、火线(firewire)端口等)或驱动器(例如磁盘驱动器等)可拆卸地连接至系统10的可拆卸式储存器。电子储存器22可以包括一个或多个光学可读储存介质(例如光盘等),磁性可读储存介质(例如磁带、磁性硬盘驱动器、软盘驱动器等),基于电子电荷(electricalcharge-based)的储存介质(例如电可擦除只读存储器(EEPROM)、随机存取存储器(RAM)等),固态储存介质(例如闪盘驱动器等),和/或其他电可读储存介质。电子储存器22可以存储软件算法、由处理器24确定的信息、要通过用户接口设备12传送给用户的内容,和/或使系统10能够正确工作的其他信息。电子储存器22可以是系统10内的单独的组件,或者电子储存器22可以与系统10的一个或多个其他组件(例如用户接口设备12、处理器24等)集成提供。
处理器24被配置成在系统10中提供信息处理能力。同样,处理器24可以包括数字处理器、模拟处理器、设计成处理信息的数字电路、设计成处理信息的模拟电路、状态机、和/或用于电子地处理信息的其他机构之中的一个或多个。虽然处理器24在图1中被示出为单个实体,但是这仅仅是出于示例性的目的。在一些实施方式中,处理器24可以包括多个处理单元。这些处理单元可以物理地位于同一个设备内,或者处理器24可以代表协同操作的多个设备的处理功能。例如,在一个实施例中,下属于处理器24的功能在第一处理器和第二处理器之间被划分,第一处理器被设置在计算机、视频游戏控制台、光盘播放器和/或其他家用娱乐设施中,并且第二处理器与第一处理器通信以给第一处理器提供位置信息。
如图1所示,处理器24可以被配置成执行一个或多个计算机程序模块。该一个或多个计算机程序模块可以包括内容提供模块26、位置模块28、刺激模块30、激励器控制模块32、和/或其他模块之中的一个或多个。处理器24可以被配置成通过软件;硬件;固件;软件、硬件和/或固件的一些组合;和/或用于在处理器24上配置处理能力的其他机构来执行模块26、28、30和/或32。
应该意识到的是,虽然模块26、28、30和/或32在图1中被示出为与单个的处理单元协同定位,但是在处理器24包括多个处理单元的实施方式中,模块26、28、30和/或32之中的一个或多个可以位于远离其他模块之处。下面描述的由不同模块26、28、30和/或32提供的功能的描述是出于示例性的目的,而非旨在为限制性的,因为模块26、28、30和/或32的任何一个都可以提供比描述的功能更多或更少的功能。例如,可以除去模块26、28、30和/或32之中的一个或多个,并且可以通过模块26、28、30和/或32之中的另一些模块提供其功能的一些或全部。作为另一个示例,处理器24可以被配置成执行一个或多个附加的模块,这些模块可以执行下属于模块26、28、30和/或32之一的功能的一些或全部。
内容提供模块26被配置成对经由用户接口设备12给用户提供的内容进行控制。如果内容包括计算机产生的图像(例如视频游戏、虚拟世界、仿真等中的图像),则内容提供模块26被配置成通过用户接口设备12产生用于显示给用户的图像和/或视图。如果内容包括视频和/或静止的图像,则内容提供模块26被配置成存取(access)视频和/或静止的图像和产生视频和/或静止的图像的视图,以便显示在用户接口设备12上。如果内容包括音频内容,则内容提供模块26被配置成产生电子信号,电子信号将驱动用户接口设备12输出适当的声音。可以通过内容提供模块26从电子储存器22获得内容、或内容得自于其的信息。
位置模块28被配置成从传感器18产生的输出信号确定位置信息。位置信息可以包括与以下有关的信息:用户的位置、激励器16的位置、传感器18的位置、控制器20的位置、和/或其他位置之中的一个或多个。与由位置模块28确定的位置有关的信息可以描述一个或多个物体(例如,用户、激励器16、传感器18、控制器20等)在绝对坐标系统中相对于其他物体的位置、和/或在其他情况下的位置。正如在本文中使用的那样,“位置信息”或“与位置有关的信息”指的不是与控制输入有关联的手势或运动。而是,“位置信息”或“与位置有关的信息”只是指描述物体的位置、或者在坐标系统中的位置、或者相对于一些其他物体的位置的信息。这种信息可以包括而不限于:坐标、距离、转动方位、和/或角度关系。
刺激模块30被配置成确定要为用户产生的触觉刺激。确定触觉刺激包括确定激励器16的哪一个(或哪些个)应该施加刺激,和/或确定触觉刺激的一个或多个参数。这种一个或多个参数可以包括力的幅度、方向性和方位、刺激的位置、振动的频率、幅度、持续时间、和/或其他参数之中的一个或多个。
通过刺激模块30确定的触觉刺激与通过用户接口设备12传送的感知内容相关。同样,通过利用内容被电子地存储的信息(例如在电子储存器22上)至少可以在某种程度上指示出刺激。通过刺激模块30确定触觉刺激以增强通过内容提供的体验的一个或多个方面。例如,可以确定触觉刺激以增强内容的真实性、内容的娱乐性、用户对内容的理解、和/或经由用户接口设备12传送给用户的内容所提供的体验的其他方面之中的一个或多个。
为了增强经由用户接口设备12传送给用户的内容所提供的体验的一个或多个方面,刺激模块30被配置成基于与位置有关的信息确定触觉刺激。这包括基于用户相对于用户接口设备12的位置、用户的一个身体部分相对于用户的另一个身体部分的位置、一个用户相对于一个或多个其他用户的位置、和/或位置信息,来改变触觉刺激。在基于位置改变触觉刺激的过程中,刺激模块30可以按照清晰的步骤、或平稳地改变刺激。用户接口设备12被配置成以相对于起到内容发送部分14功能的显示表面以离散、预定的视角提供三维视图,然后刺激模块30可以改变触觉刺激,以使每个预定视角都接收到相应于其三维视图的触觉刺激。作为另一个示例,如果一个用户相对于用户接口设备12站在另一个用户后面,则提供给该用户的更加远的触觉刺激可以反映被站在中间的用户的“遮挡”。
确定触觉刺激以考虑位置信息可以是基于由位置模块28确定位置信息,和/或确定与被预先存储或配置的激励器16的位置有关的位置信息。将意识到的是,基于本文描述的位置信息使触觉刺激变化的讨论与基于输入或控制手势使触觉刺激变化是不同的。由刺激模块30基于位置确定触觉刺激不依赖于通过用户执行的手势或物理操纵。而是,由刺激模块30确定的相应于给定控制或输入手势的触觉刺激会在控制或输入手势执行期间基于用户的位置(或者用户身体部分的相对位置)而变化。同样,不相应于控制或输入手势(例如,与被传送给用户的内容的效应或成分(component)相关)的触觉刺激可以由刺激模块30确定,以基于类似的位置信息而变化。
在一个实施例中,刺激模块30确定要为用户产生的触觉刺激,以与被传送给用户的内容的效果的方向性和方位一致。例如,如果用户接口设备12被配置成通过充当内容发送部分14的显示表面产生三维图像,则触觉刺激依据视角、离开内容发送部分14的距离、和/或视角和距离两者而变化,以传送由用户接口设备12传送的三维视图中的视觉实体的方向性和方位。而是可以使用其他有关位置的参数,或者结合视角和/或距离,以改变触觉刺激。
作为这个示例的一个具体实例,如果三维视图中的球远离内容发送部分14沿着一路径向外投射,则由刺激模块30确定触觉刺激以便为位于该路径上或者位于该路径附近的用户模仿被球碰撞。另一方面,不在路径附近的用户不会接收到这种刺激。将意识到的是,可以用一些其他抛射体来替代球。作为这个示例的另一个具体实例,如果在三维视图中显示出爆炸,则触觉刺激能够用于增强爆炸的真实性。这会包括确定触觉刺激的幅度、量、和/或类型,以便与爆炸的方向性和方位一致。
产生触觉刺激以便与通过用户接口设备12传送的三维视图的效果的方向性和/或方位一致的这些实例不旨在为限制性的。示例性使用位置信息以确定触觉刺激的其他实例可以不背离本公开的范围而实施。将意识到的是,改变触觉刺激以反映通过用户接口设备12传送的内容中事件的方向性和/或方位的描述不被限制于三维视图,或者甚至是视觉效果。可以将相同的原理应用于二维视图的效果、和/或音频效果。
在一个实施例中,激励器16包括在传送内容期间相对于用户接口设备12位置固定的一个或多个激励器。例如,激励器16可以包括在传送内容期间是固定的装置、地板、垫子、和/或其他物体携载或包括于其中的激励器。在这个实施例中,刺激模块30可以为固定位置的激励器16确定触觉刺激。与这些固定位置有关的位置信息可以包括由刺激模块30使用的预先配置和/或预先存储的一个或多个位置信息。
在一个实施例中,激励器16包括被用户佩带、携载或另外移动的物体包括于其中或携载的一个或多个激励器。在这个实施例中,由刺激模块30基于其从位置模块28接收到的位置信息来确定要由便携式激励器产生的触觉刺激,该位置信息与用户和/或可移动激励器相对于用户接口设备12的位置有关。例如,可移动激励器可以被包括在游戏控制器、可佩带式背带、枕头、被充填的玩具动物、玩具、和/或其他物体之中。
在一个实施例中,刺激模块30被配置成基于用户的身体部分的相对位置而确定触觉刺激。例如,如果用户正持有控制器20之一,则位置模块28可以确定控制器20相对于用户躯干的位置。随着控制器20离用户越来越近或越来越远,由刺激模块30确定的触觉刺激可以基于相对位置的改变而变化。通过在确定用户相对于用户接口设备12(例如,并非假设20以反映用户的位置而不调整)的位置过程中包括用户躯干与控制器20之间的相对位置可以简单地做出这个改变,或者基于控制器20靠近和/或离开用户躯干的动作而具体做出改变。
在一个实施例中,刺激将用户(和/或控制器20)相对于用户接口设备12的位置和控制器相对于用户的位置考虑在内。例如,响应于用户从他的身体移动控制器20至离开他的身体一个臂长度、为用户确定的刺激可以不同于使控制器20离开他的身体但是向前步进一个臂的长度。同样,向前步进半个臂的长度同时将他的臂伸展到一半可以引起与只移动臂或只向前步进不同的刺激。
在一个实施例中,确定触觉刺激,以便基于控制器20相对于用户躯干的转动方位、或与控制器20相对于用户躯干的相对位置有关的其他信息而变化。
激励器控制模块32被配置成控制激励器16以产生由刺激模块30确定的触觉刺激。这包括将要产生的触觉刺激从处理器24通信到激励器16。要产生的触觉刺激可以在有线通信链路、无线通信链路、和/或处理器24与激励器16之间的其他通信链路上通信。在一个实施例中,归属于激励器控制模块32的功能的至少一部分被布置在由控制器20携载的处理器、和/或携载一个或多个激励器16的一些其他物体之中。
图2示出提供与传送给一个或多个用户的其他感知内容相关的触觉刺激的方法34。下面提供的方法34的操作旨在为示例性的。在一些实施例中,方法34可以利用未描述的一个或多个附加操作、和/或不用所讨论的一个或多个操作来实现。此外,图2中示出和下面描述的方法34的操作顺序旨在为非限制性的。
在一些实施例中,方法34可以在一个或多个处理设备(例如,数字处理器、模拟处理器、设计成处理信息的数字电路、设计成处理信息的模拟电路、状态机,和/或用于电子式处理信息的其他机构)中实施。一个或多个处理设备可以包括响应于电子地存储在电子储存介质上的指令、执行方法34的一些或全部操作的一个或多个设备。一个或多个处理设备可以包括通过专门设计成执行方法34的一个或多个操作的硬件、固件、和/或软件配置的一个或多个设备。
在操作36处,感知内容被传送给一个或多个用户。感知内容可以包括视觉内容、音频内容、和/或其他感知内容。通过类似于用户接口设备12或与其相同、具有类似于内容发送部分14(如上所述在图1中示出)或与其相同的内容发送部分的用户接口设备将感知内容传送给一个或多个用户。
在操作38处,可以确定位置信息。位置信息可以与一个或多个用户、用户的一个或多个身体部分、控制器(例如游戏控制器)、激励器、和/或其他物体的位置(多个位置)有关。位置信息可以指示出在绝对坐标系中的位置,相对于用户接口设备、内容发送部分、用户、和/或其他物体的位置。在一个实施例中,通过类似于位置模块28(如上所述在图1中示出)或与其相同的位置模块执行操作38。
在操作40处,确定要为一个或多个用户产生的触觉刺激。触觉刺激与传送给用户的内容相关。触觉刺激被确定成使得其依据位置信息而变化。位置信息可以描述一个或多个用户、用户的一个或多个身体部分、控制器(例如游戏控制器)、激励器、和/或其他物体的位置。位置信息可以指示出在绝对坐标系中的位置,相对于用户接口设备、内容发送部分、用户、和/或其他物体的位置。位置信息可以包括在操作38处确定的位置信息、预先配置和/或预先存储的位置信息,和/或其他位置信息。在一个实施例中,通过类似于刺激模块30(如上所述在图1中示出)或与其相同的刺激模块执行操作40。
在操作42处,为用户产生触觉刺激。在一个实施例中,通过类似于激励器16(如上所述在图1中示出)或与其相同的一个或多个激励器执行操作42。
虽然出于示例的目的,已经基于目前被视为很实际和优选的实施例详细描述了本发明,但是要理解的是,这种详细仅仅是出于该目的,并且本发明不限于所公开的实施例,而是相反,本发明旨在覆盖在所附权利要求的精神和范围内的更改和等价的布置。例如,要理解的是,本发明意图为尽可能地,任何实施例的一个或多个特征都可以与任何其他实施例的一个或多个特征组合。

Claims (19)

1.一种配置成给一个或多个用户提供触觉刺激的系统,所述系统包含:
用户接口设备,包括电子显示器,所述电子显示器具有将可视内容的三维视图以离散、预定的视角传送给一个或多个用户的显示表面,所述可视内容包括事件;
第一激励器,其被配置成产生与由显示表面传送给第一用户的所述可视内容相关的触觉刺激;和
一个或多个处理器,其被配置成执行计算机程序模块,所述计算机程序模块包含:
刺激模块,其被配置成确定要为第一用户产生的触觉刺激,所述触觉刺激与基于所述第一用户相对于所述显示表面的第一视角由显示表面传送给所述第一用户的所述可视内容相关,其中所述触觉刺激选自与各自离散、预定的视角对应的彼此不同的针对事件的一组触觉刺激;和
激励器控制模块,其被配置成控制所述第一激励器以为第一用户产生由所述刺激模块确定的所述触觉刺激。
2.根据权利要求1所述的系统,还包含第二激励器,被配置为产生与由显示表面传送给第二用户的所述可视内容相关的触觉刺激,其中所述刺激模块被进一步配置为确定要为第二用户产生的、与基于所述第二用户相对于所述显示表面的第二视角由显示表面传送给所述第二用户的所述可视内容相关的触觉刺激,并且其中所述激励器控制模块被进一步配置成控制所述第二激励器以为第二用户产生由所述刺激模块确定的所述触觉刺激。
3.根据权利要求1所述的系统,其中针对所述各自的离散、预定的视角与事件相关的触觉刺激中的差异反映在所述三维视图中与所述事件相关的视觉效果的方向性和方位,所述三维视图以离散、预定的视角被传送。
4.根据权利要求1所述的系统,进一步包含:
传感器,其被配置成产生传送信息的输出信号,所述信息与第一用户相对于所述显示表面的位置有关;并且
其中,所述计算机程序模块进一步包含:
位置模块,其被配置成基于由所述传感器产生的所述输出信号而确定所述第一用户相对于所述显示表面的视角,并且
其中,所述刺激模块被配置成使得针对第一用户的与事件相关的所述触觉刺激是基于由所述位置模块做出的视角确定而被确定的。
5.根据权利要求4所述的系统,其中所述传感器被配置成使得所述输出信号传送与和所述第一用户相关的手持式控制器的位置有关的信息。
6.根据权利要求5所述的系统,其中所述第一激励器被所述手持式控制器携载。
7.根据权利要求4所述的系统,其中所述传感器被配置成使得所述输出信号传送包括所述第一用户的图像,并且所述位置模块被配置成基于对所述图像的分析而确定所述第一用户相对于所述显示表面的第一视角。
8.根据权利要求2所述的系统,其中所述刺激模块被配置成使得响应于所述第一视角不同于所述第二视角,针对第一用户的与事件相关的触觉刺激不同于针对第二用户的与事件相关的触觉刺激。
9.根据权利要求1所述的系统,其中所述刺激模块被配置成使得所述触觉刺激依据相对于所述显示表面的第一视角而变化,与所述第一用户离开所述显示表面的距离无关。
10.根据权利要求1所述的系统,其中通过所述用户接口设备传送给所述第一用户的所述内容包括视频游戏的场景。
11.一种给用户提供触觉刺激的方法,所述方法包含:
在包括在用户接口设备中的电子显示器的显示表面上向第一用户传送可视内容的三维视图,所述可视内容包括事件的可视表示,并且所述三维视图是以离散、预定的视角可观看的三维视图;
确定要为第一用户产生的与事件相关的触觉刺激,使得所述触觉刺激是通过选自与各自的离散、预定的视角对应的彼此不同的与事件相关的一组独立的触觉刺激、基于所述第一用户相对于所述显示表面的第一视角确定的;和
与所述事件的可视表示的显示协同地为第一用户产生所述触觉刺激。
12.根据权利要求11所述的方法,还包含确定要为第二用户产生的与事件相关的触觉刺激,使得所述触觉刺激是基于所述第二用户相对于所述显示表面的第二视角确定的。
13.根据权利要求11所述的方法,其中针对所述各自的离散、预定的视角的与事件相关的触觉刺激的差异反映在所述三维视图中与事件相关的视觉效果的方向性和方位,所述三维视图以离散、预定的视角被传送。
14.根据权利要求11所述的方法,进一步包含:
确定所述第一用户相对于所述显示表面的所述第一视角,和
其中要为所述第一用户产生的与所述事件相关的触觉刺激的确定是基于所述第一视角的确定而确定的。
15.根据权利要求14所述的方法,其中确定所述第一用户的第一视角包含确定与和所述第一用户相关的手持式控制器的位置有关的信息。
16.根据权利要求15所述的方法,其中所述触觉刺激由所述手持式控制器产生。
17.根据权利要求14所述的方法,其中确定所述第一用户的第一视角包含捕捉包括所述第一用户的图像,并且分析所捕捉的图像以确定相对于所述显示表面的第一视角。
18.根据权利要求12所述的方法,其中响应于所述第一视角不同于所述第二视角,针对第一用户的与事件相关的触觉刺激不同于针对第二用户的与事件相关的触觉刺激。
19.根据权利要求11所述的方法,其中所确定的触觉刺激依据相对于所述显示表面的第一视角而变化,与所述第一用户离开所述显示表面的距离无关。
CN201180016371.3A 2010-03-31 2011-03-31 基于位置提供触觉刺激的系统和方法 Active CN102822772B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/751,780 US8540571B2 (en) 2010-03-31 2010-03-31 System and method for providing haptic stimulus based on position
US12/751,780 2010-03-31
PCT/US2011/030661 WO2011123599A1 (en) 2010-03-31 2011-03-31 System and method for providing haptic stimulus based on position

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201610031251.5A Division CN105718053A (zh) 2010-03-31 2011-03-31 基于位置提供触觉刺激的系统和方法

Publications (2)

Publication Number Publication Date
CN102822772A CN102822772A (zh) 2012-12-12
CN102822772B true CN102822772B (zh) 2016-02-17

Family

ID=44533501

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201610031251.5A Pending CN105718053A (zh) 2010-03-31 2011-03-31 基于位置提供触觉刺激的系统和方法
CN201180016371.3A Active CN102822772B (zh) 2010-03-31 2011-03-31 基于位置提供触觉刺激的系统和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201610031251.5A Pending CN105718053A (zh) 2010-03-31 2011-03-31 基于位置提供触觉刺激的系统和方法

Country Status (6)

Country Link
US (3) US8540571B2 (zh)
EP (2) EP2553547B1 (zh)
JP (3) JP5893605B2 (zh)
KR (3) KR20130040853A (zh)
CN (2) CN105718053A (zh)
WO (1) WO2011123599A1 (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013857B2 (en) * 2011-12-21 2018-07-03 Qualcomm Incorporated Using haptic technologies to provide enhanced media experiences
EP2629178B1 (en) 2012-02-15 2018-01-10 Immersion Corporation High definition haptic effects generation using primitives
WO2013136287A1 (en) * 2012-03-15 2013-09-19 Motorika Limited Gyroscopic apparatuses and methods of using same
US20130260886A1 (en) * 2012-03-29 2013-10-03 Adam Smith Multi-sensory Learning Game System
DE102012208355A1 (de) * 2012-05-18 2013-11-21 Robert Bosch Gmbh Anordnung und Verfahren zum Erzeugen einer Tastsinnreizung eines Benutzers
US8947387B2 (en) * 2012-12-13 2015-02-03 Immersion Corporation System and method for identifying users and selecting a haptic response
TW201502859A (zh) * 2013-01-28 2015-01-16 Bayer Materialscience Ag 電活性聚合物致動器及其回饋系統
US9833697B2 (en) * 2013-03-11 2017-12-05 Immersion Corporation Haptic sensations as a function of eye gaze
US9092954B2 (en) * 2013-03-15 2015-07-28 Immersion Corporation Wearable haptic device
US9557830B2 (en) * 2013-03-15 2017-01-31 Immersion Corporation Programmable haptic peripheral
US9274603B2 (en) * 2013-05-24 2016-03-01 Immersion Corporation Method and apparatus to provide haptic feedback based on media content and one or more external parameters
CN104417430A (zh) * 2013-08-29 2015-03-18 范钦 一种腰带式驾驶安全触觉系统
US9619029B2 (en) 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) * 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
US9639158B2 (en) * 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
US10437341B2 (en) * 2014-01-16 2019-10-08 Immersion Corporation Systems and methods for user generated content authoring
US10067566B2 (en) * 2014-03-19 2018-09-04 Immersion Corporation Systems and methods for a shared haptic experience
US9958829B2 (en) * 2014-05-07 2018-05-01 International Business Machines Corporation Sensory holograms
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
US9715279B2 (en) * 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
US10185396B2 (en) 2014-11-12 2019-01-22 Immersion Corporation Haptic trigger modification system
US9174134B1 (en) 2014-11-12 2015-11-03 Immersion Corporation Peripheral device with haptic diminishment prevention component
US9846484B2 (en) * 2014-12-04 2017-12-19 Immersion Corporation Systems and methods for controlling haptic signals
US10403084B2 (en) * 2014-12-17 2019-09-03 Igt Canada Solutions Ulc Contactless tactile feedback on gaming terminal with 3D display
US10195525B2 (en) * 2014-12-17 2019-02-05 Igt Canada Solutions Ulc Contactless tactile feedback on gaming terminal with 3D display
US10427034B2 (en) * 2014-12-17 2019-10-01 Igt Canada Solutions Ulc Contactless tactile feedback on gaming terminal with 3D display
US10254838B2 (en) 2014-12-23 2019-04-09 Immersion Corporation Architecture and communication protocol for haptic output devices
US10613629B2 (en) 2015-03-27 2020-04-07 Chad Laurendeau System and method for force feedback interface devices
EP3099030A1 (en) * 2015-05-26 2016-11-30 Thomson Licensing Method and device for encoding/decoding a packet comprising data representative of a haptic effect
US10331214B2 (en) * 2015-09-08 2019-06-25 Sony Corporation Information processing device, method, and computer program
CN105677017B (zh) * 2015-12-28 2019-04-26 联想(北京)有限公司 一种控制方法、键盘、电子设备及电子装置
FR3046575B1 (fr) * 2016-01-07 2021-12-03 Peugeot Citroen Automobiles Sa Organe de commande
CN108885477A (zh) * 2016-02-25 2018-11-23 瑟克公司 具有多种跟踪方式的触摸板系统及集成有电容位置跟踪功能的机械力定位传感器
WO2018008217A1 (ja) * 2016-07-07 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6650890B2 (ja) * 2017-01-06 2020-02-19 任天堂株式会社 ゲームシステム、ゲームプログラム、情報処理装置およびゲーム制御方法
US20180232051A1 (en) * 2017-02-16 2018-08-16 Immersion Corporation Automatic localized haptics generation system
US10748437B2 (en) 2017-08-14 2020-08-18 Parker Appleton LYNCH Learning aid apparatus and system
JP7314926B2 (ja) * 2018-02-20 2023-07-26 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2019244716A1 (ja) * 2018-06-19 2021-06-24 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP7424301B2 (ja) * 2018-10-19 2024-01-30 ソニーグループ株式会社 情報処理装置、情報処理方法、および、プログラム
CN109966735B (zh) * 2019-03-02 2023-05-30 黄鑫 一种触觉仿真游戏手柄系统及触觉仿真方法
US11282281B2 (en) * 2019-11-13 2022-03-22 At&T Intellectual Property I, L.P. Activation of extended reality actuators based on content analysis
EP4300264A1 (en) * 2022-07-01 2024-01-03 Go Touch VR Method and apparatus of signaling/parsing haptic data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1231753A (zh) * 1996-08-14 1999-10-13 挪拉赫梅特·挪利斯拉莫维奇·拉都色夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
CN1714388A (zh) * 2002-11-19 2005-12-28 摩托罗拉公司(在特拉华州注册的公司) 以身体为中心的虚拟交互设备与方法
EP1916592A2 (en) * 2006-10-23 2008-04-30 Canon Kabushiki Kaisha Haptic feedback apparatus and method

Family Cites Families (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3391071B2 (ja) * 1993-12-27 2003-03-31 株式会社セガ ゲーム機
AU3329595A (en) * 1994-08-18 1996-03-14 Interval Research Corporation Content-based haptic input device for video
WO1997020305A1 (en) * 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US6028593A (en) * 1995-12-01 2000-02-22 Immersion Corporation Method and apparatus for providing simulated physical interactions within computer generated environments
US6084587A (en) * 1996-08-02 2000-07-04 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with a haptic virtual reality environment
US6042555A (en) * 1997-05-12 2000-03-28 Virtual Technologies, Inc. Force-feedback interface device for the hand
US20020035995A1 (en) * 1997-07-22 2002-03-28 Jurgen G. Schmidt Method and apparatus for inducing alternating tactile stimulations
JPH11300049A (ja) * 1998-04-20 1999-11-02 Hitachi Ltd シューティングゲーム装置
JP2000033184A (ja) * 1998-05-14 2000-02-02 Masanobu Kujirada 全身動作入力型のゲ―ム及びイベント装置
US6184868B1 (en) * 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
WO2001024158A1 (en) * 1999-09-28 2001-04-05 Immersion Corporation Controlling haptic sensations for vibrotactile feedback interface devices
JP2001104641A (ja) * 1999-10-13 2001-04-17 Namco Ltd ゲーム装置
JP2001104642A (ja) * 1999-10-13 2001-04-17 Namco Ltd ゲーム装置
US6924787B2 (en) * 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
JP2001356875A (ja) 2000-06-13 2001-12-26 Toshiba Corp ポインタ表示システム
JP2002123840A (ja) * 2000-10-17 2002-04-26 Nippon Telegr & Teleph Corp <Ntt> 臨場感型仮想現実提供処理方法および装置
US7409441B2 (en) * 2001-05-18 2008-08-05 Sony Computer Entertainment Inc. Display apparatus for accessing desired web site
JP2003085590A (ja) * 2001-09-13 2003-03-20 Nippon Telegr & Teleph Corp <Ntt> 3次元情報操作方法およびその装置,3次元情報操作プログラムならびにそのプログラムの記録媒体
JP3466176B2 (ja) * 2001-12-21 2003-11-10 コナミ株式会社 ゲーム方法、ゲームプログラム、ゲーム装置及びゲームシステム
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
EP1533678A1 (en) * 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
HU0401034D0 (en) 2004-05-24 2004-08-30 Ratai Daniel System of three dimension induting computer technology, and method of executing spatial processes
JP4484065B2 (ja) * 2004-06-25 2010-06-16 三星モバイルディスプレイ株式會社 発光表示装置,発光表示装置の駆動装置及び発光表示装置の駆動方法
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
KR20070040373A (ko) 2004-07-23 2007-04-16 코닌클리케 필립스 일렉트로닉스 엔.브이. 항목 위치 및/또는 선택 도움을 위한 포인팅 디바이스와방법
JP2006324952A (ja) * 2005-05-19 2006-11-30 Hitachi Ltd テレビジョン装置
JP3998151B2 (ja) * 2005-06-27 2007-10-24 株式会社タイトー ビデオ式ガンゲーム装置
US7280097B2 (en) * 2005-10-11 2007-10-09 Zeetoo, Inc. Human interface input acceleration system
NL1030440C2 (nl) * 2005-11-16 2007-05-21 Univ Twente Bewegingsvolgsysteem.
JP2007156561A (ja) * 2005-11-30 2007-06-21 Canon Inc 複合現実感提示方法および複合現実感提示システム
KR100812624B1 (ko) * 2006-03-02 2008-03-13 강원대학교산학협력단 입체영상 기반 가상현실장치
WO2007119603A1 (ja) * 2006-03-23 2007-10-25 National University Corporation Nagoya University 触覚ディスプレイ装置、多自由度アクチュエータ、及び、ハンドリング装置
JP5136742B2 (ja) * 2006-10-13 2013-02-06 株式会社セガ 電子遊戯装置、電子遊戯用制御方法およびゲームプログラム
JP4146874B2 (ja) * 2006-12-22 2008-09-10 株式会社コナミデジタルエンタテインメント シューティング対戦用玩具
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
JP5286267B2 (ja) * 2007-08-03 2013-09-11 株式会社キャメロット ゲーム装置、ゲームプログラム及びオブジェクトの操作方法
JP5307014B2 (ja) * 2007-09-07 2013-10-02 株式会社コナミデジタルエンタテインメント 画像処理装置、ゲーム装置およびコンピュータプログラム
JP4739302B2 (ja) * 2007-09-14 2011-08-03 独立行政法人科学技術振興機構 貫通触感覚提示装置
US20090088659A1 (en) * 2007-09-27 2009-04-02 Immersion Corporation Biological Sensing With Haptic Feedback
US8098235B2 (en) * 2007-09-28 2012-01-17 Immersion Corporation Multi-touch device having dynamic haptic effects
US20090098519A1 (en) * 2007-10-10 2009-04-16 Jennifer Byerly Device and method for employment of video games to provide physical and occupational therapy and measuring and monitoring motor movements and cognitive stimulation and rehabilitation
US9986293B2 (en) * 2007-11-21 2018-05-29 Qualcomm Incorporated Device access control
US20090135133A1 (en) * 2007-11-26 2009-05-28 Kunzler Patrik A 3D Motion Control System and Method
US8803797B2 (en) * 2008-01-18 2014-08-12 Microsoft Corporation Input through sensing of user-applied forces
US8226479B2 (en) * 2008-04-07 2012-07-24 Disney Enterprises, Inc. Group decision haptic feedback systems and methods
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
JP2010009558A (ja) * 2008-05-28 2010-01-14 Oki Semiconductor Co Ltd 画像認識装置、電装機器動作制御ユニット、電化製品、画像認識プログラム、半導体装置
DE102008034200A1 (de) * 2008-07-21 2010-01-28 Astrium Gmbh Verfahren und Vorrichtung zum Informieren eines Nutzers über die Lage einer Informationsquelle in Bezug auf die Nutzerposition
KR101495172B1 (ko) * 2008-07-29 2015-02-24 엘지전자 주식회사 이동단말기 및 그의 이미지 제어방법
US20100053151A1 (en) 2008-09-02 2010-03-04 Samsung Electronics Co., Ltd In-line mediation for manipulating three-dimensional content on a display device
JP4697279B2 (ja) * 2008-09-12 2011-06-08 ソニー株式会社 画像表示装置および検出方法
US9399167B2 (en) * 2008-10-14 2016-07-26 Microsoft Technology Licensing, Llc Virtual space mapping of a variable activity region
US20100128112A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
US8953029B2 (en) * 2009-05-08 2015-02-10 Sony Computer Entertainment America Llc Portable device interaction via motion sensitive controller
JP5638797B2 (ja) * 2009-12-25 2014-12-10 株式会社カプコン ゲーム装置およびゲームプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1231753A (zh) * 1996-08-14 1999-10-13 挪拉赫梅特·挪利斯拉莫维奇·拉都色夫 追踪并显示使用者在空间的位置与取向的方法,向使用者展示虚拟环境的方法以及实现这些方法的系统
CN1714388A (zh) * 2002-11-19 2005-12-28 摩托罗拉公司(在特拉华州注册的公司) 以身体为中心的虚拟交互设备与方法
EP1916592A2 (en) * 2006-10-23 2008-04-30 Canon Kabushiki Kaisha Haptic feedback apparatus and method

Also Published As

Publication number Publication date
KR20180008890A (ko) 2018-01-24
JP2016129048A (ja) 2016-07-14
CN105718053A (zh) 2016-06-29
EP2553547B1 (en) 2018-06-13
JP2018125007A (ja) 2018-08-09
US20110244963A1 (en) 2011-10-06
EP2553547A1 (en) 2013-02-06
JP6368329B2 (ja) 2018-08-01
WO2011123599A1 (en) 2011-10-06
JP2013524351A (ja) 2013-06-17
US20140043228A1 (en) 2014-02-13
KR20130040853A (ko) 2013-04-24
US8540571B2 (en) 2013-09-24
JP5893605B2 (ja) 2016-03-23
KR101914423B1 (ko) 2018-11-01
US9987555B2 (en) 2018-06-05
US20180250590A1 (en) 2018-09-06
CN102822772A (zh) 2012-12-12
EP3392746A1 (en) 2018-10-24
KR20180119704A (ko) 2018-11-02

Similar Documents

Publication Publication Date Title
CN102822772B (zh) 基于位置提供触觉刺激的系统和方法
US11014000B2 (en) Simulation system, processing method, and information storage medium
US10347093B2 (en) Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference
JP7258864B2 (ja) エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング
US9588586B2 (en) Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
JP6679747B2 (ja) 仮想現実(vr)ユーザインタラクティブ性に関連付けられた仮想現実環境の観戦
CN107735152B (zh) 用于虚拟现实(vr)观看的扩展视野重新渲染
JP2019511781A (ja) 仮想現実(vr)環境におけるvrユーザの観客ビュー追跡
WO2017161276A1 (en) Spectator view perspectives in vr environments
WO2019177703A1 (en) Asynchronous virtual reality interactions

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: American California

Applicant after: IMMERSION CORPORATION

Address before: American California

Applicant before: Immersion Corp.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: IMMERSION CORP. TO: YIMEISEN CO., LTD.

C14 Grant of patent or utility model
GR01 Patent grant