CN107924236B - 信息处理装置、方法和存储介质 - Google Patents

信息处理装置、方法和存储介质 Download PDF

Info

Publication number
CN107924236B
CN107924236B CN201680050120.XA CN201680050120A CN107924236B CN 107924236 B CN107924236 B CN 107924236B CN 201680050120 A CN201680050120 A CN 201680050120A CN 107924236 B CN107924236 B CN 107924236B
Authority
CN
China
Prior art keywords
virtual object
virtual
listener
haptic
vibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201680050120.XA
Other languages
English (en)
Other versions
CN107924236A (zh
Inventor
中川佑辅
横山谅
小森显博
野崎隆志
山野郁男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN107924236A publication Critical patent/CN107924236A/zh
Application granted granted Critical
Publication of CN107924236B publication Critical patent/CN107924236B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D1/00Garments
    • A41D1/002Garments adapted to accommodate electronic equipment
    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41DOUTERWEAR; PROTECTIVE GARMENTS; ACCESSORIES
    • A41D1/00Garments
    • A41D1/02Jackets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/218Input arrangements for video game devices characterised by their sensors, purposes or types using pressure sensors, e.g. generating a signal proportional to the pressure applied by the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/31Communication aspects specific to video games, e.g. between several handheld game devices at close range
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/54Controlling the output signals based on the game progress involving acoustic signals, e.g. for simulating revolutions per minute [RPM] dependent engine sounds in a driving game or reverberation against a virtual wall
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/577Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using determination of contact between game characters or objects, e.g. to avoid collision between virtual racing cars
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M19/00Current supply arrangements for telephone systems
    • H04M19/02Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone
    • H04M19/04Current supply arrangements for telephone systems providing ringing current or supervisory tones, e.g. dialling tone or busy tone the ringing-current being generated at the substations
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/426Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving on-screen location information, e.g. screen coordinates of an area at which the player is aiming with a light gun
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2250/00Miscellaneous game characteristics
    • A63F2250/16Use of textiles
    • A63F2250/166Garments
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Textile Engineering (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

[问题]用户能更具现场感地接收触觉反馈。[解决方案]一种信息处理装置,其包括:虚拟空间数据生成单元,配置为生成与虚拟空间有关的数据,所述虚拟空间包括具有属性的虚拟对象;监听器放置单元,配置为放置用于检测与所述虚拟对象的接触的监听器;虚拟对象,其中放置有所述监听器;以及触觉数据生成单元,配置为在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据。

Description

信息处理装置、方法和存储介质
技术领域
本公开涉及信息处理装置、方法和计算机程序。
背景技术
智能手机或游戏中使用的控制器包括振动装置,用于将触觉反馈提供给用户。
在专利文献1中公开了一种输入装置,且专利文献1中公开的输入装置将与用户的操作对应的振动反馈提供给该用户。
引文列表
专利文献
专利文献1:JP2011-59821A
发明内容
技术问题
在专利文献1中公开的输入装置中,由于将单调的振动反馈提供给用户,用户不能具有现场感地接收触觉反馈。在这方面,本公开提出能够使得用户更具现场感地接收触觉反馈的信息处理装置、方法和计算机程序。
问题的解决方案
根据本公开,提供了一种信息处理装置,其包括:虚拟空间数据生成单元,配置为生成与虚拟空间有关的数据,所述虚拟空间包括具有属性的虚拟对象;监听器放置单元,配置为放置用于检测与所述虚拟对象的接触的监听器;虚拟对象,其中放置有所述监听器;以及触觉数据生成单元,配置为在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据。
进一步地,根据本公开,提供了一种方法,其包括:生成与虚拟空间有关的数据,所述虚拟空间包括具有属性的虚拟对象;放置用于检测与所述虚拟对象的接触的监听器;使得所述监听器被放置在所述虚拟对象中;以及在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据。
进一步地,根据本公开,提供了一种计算机程序,其使得处理器执行:生成与包括虚拟对象的虚拟空间有关的数据,所述虚拟对象具有属性;放置用于检测与所述虚拟对象的接触的监听器;使得所述监听器被放置在所述虚拟对象中;以及在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据。
本发明的有益效果
如上所述,根据本公开,用户能更具现场感地接收触觉反馈。
注意,上述效果未必是限制性的。连同或取代以上效果,可以实现本说明书中所述的任意一种效果或可以从本说明书中获得的其他效果。
附图说明
图1为示出根据本公开的当前实施方式的系统配置的示意图。
图2为示出根据本公开的实施方式的系统配置的框图。
图3为示出虚拟对象以及放置在虚拟对象中的监听器的示意图。
图4为示出其中在本公开的实施方式中出现有振动反馈的事件的示意图。
图5为示出其中在本公开的实施方式中出现有振动反馈的事件的另一个例子的示意图。
图6为示出在根据本公开的实施方式的系统中进行的过程实例的流程图。
图7为示出其中在本公开的实施方式中出现有振动反馈的事件的另一个例子的示意图。
图8为示出其中通过振动来表示虚拟对象的形状和质地的方法的示意图。
图9为示出其中通过振动来表示虚拟对象的形状和质地的方法的示意图。
图10为示出其中通过振动来表示虚拟对象的形状和质地的方法的示意图。
图11为示出其中通过振动来表示虚拟对象的形状和质地的方法的示意图。
图12为示出其中通过振动来表示虚拟对象的形状和质地的方法的示意图。
图13为示出本公开的实施方式中一种可穿戴终端的实例的示意图,该终端包括多个振动装置。
图14为示出本公开的实施方式中一种虚拟对象的实例的示意图,在该虚拟对象中放置有多个监听器。
图15为示出本公开的实施方式中多个监听器的耦接元件的示意图。
图16为示出多个监听器与碰撞的虚拟对象的大小之间关系的实例的示意图。
图17为示出根据本公开的实施方式的系统配置的另一个实例的框图。
图18为示出本公开的实施方式中可穿戴终端的另一个实例的示意图,该终端包括多个振动装置。
图19为示出本公开的实施方式中的虚拟数据生成方法的示意图。
图20为示出本公开的实施方式中的虚拟数据生成方法的示意图。
图21为示出本公开的实施方式中的虚拟数据生成方法的示意图。
具体实施方式
以下,将结合附图详细说明本公开的优选实施方式。注意,在本说明书及附图中,用相同的附图标记标示具有基本相同的功能和结构的结构元件,且省略了对这些结构元件的重复说明。
进一步地,将按以下次序进行本说明:
1.本实施方式的系统配置
2.检测与虚拟对象的接触的监听器
3.对于用户的振动反馈
4.本实施方式的系统中的过程
5.由虚拟操作对象上的非接触事件引起的反馈
6.基于虚拟对象的形状和材料的振动反馈
7.具有多个振动装置的可穿戴终端
8.监听器检测接触的模式
9.具有扬声器的可穿戴终端
10.振动数据生成方法
11.补充
12.结论
<1.本实施方式的系统配置>
图1为示出根据本公开的实施方式的系统配置的示意图。根据本实施方式的该系统包括游戏机100、控制器200、以及显示装置300。该游戏机100读取存储在存储介质中的游戏软件,且执行与该游戏软件有关的过程。例如,该游戏机100生成用于进行游戏的虚拟空间的数据,且该游戏机100也基于从控制器200提供的信息进行与由用户操作的虚拟操作对象400a的过程。
进一步地,该游戏机100将生成的与游戏的虚拟空间有关的视频数据发送给显示装置300。进一步地,在一个实例中,将由用户操作的虚拟操作对象400a和其他球形虚拟对象400b放置在该虚拟空间中。进一步地,以下将说明作为生成与该虚拟空间有关的数据的信息处理装置的例子的游戏机100。
控制器200用于让用户操作虚拟操作对象400a。控制器200无线连接至游戏机100,且将与用户的操作有关的信息发送给游戏机100。显示装置300接收来自游戏机100的视频数据,且显示与游戏有关的虚拟空间。
以上已经说明了根据本实施方式的系统概览。以下,将说明根据本实施方式的系统的内部配置。图2为示出根据本实施方式的系统的内部配置的框图。进一步地,将结合图2说明游戏机100与控制器200的内部配置。
本实施方式的游戏机100包括处理单元102、虚拟空间数据生成单元104、监听器放置单元106、物理引擎108、触觉引擎110、以及通信单元116。进一步地,触觉引擎110包括振动数据生成单元112与音频数据生成单元114。处理单元102连接至游戏机100的各个单元,且处理从各个单元接收的各种信息,并与各个单元交换信息。虚拟空间数据生成单元基于游戏软件的信息或类似信息来生成与虚拟空间有关的数据。由虚拟空间数据生成单元生成的与虚拟空间有关的数据包括与放置在虚拟空间中的虚拟对象400有关的信息。
监听器放置单元106将监听器放置在由用户操作的虚拟操作对象400a中,用于检测与该虚拟操作对象400a的接触。之后将说明监听器放置方法。物理引擎108在虚拟空间中进行各种操作。例如,物理引擎108在虚拟空间中进行接触判断、刚性体操作、流体操作等等。进一步地,由物理引擎108处理的参数的例子包括虚拟对象400的属性信息,诸如虚拟对象400的质量、刚度、材料、尺寸、形状、位置和速度。换言之,由物理引擎108处理的参数可以包括当多个虚拟对象400相互接触时与接触位置有关的信息以及当多个虚拟对象400相互接触时与相对速度有关的信息。
触觉引擎110包括基于物理单元108的操作结果生成振动数据的振动数据生成单元112和生成音频数据的音频数据生成单元。振动数据生成单元112基于由物理引擎108处理的参数而生成用于振动控制器200的振动装置208的振动数据。音频数据生成单元114基于由物理单元108处理的参数而生成音频数据。进一步地,振动数据生成单元112是触觉数据生成单元的一个实例。
通信单元116用于进行与诸如控制器200的其他装置的发送与接收。通信单元116可以是诸如Bluetooth(注册商标)的近场通信(NFC)接口。进一步地,通信单元116不限于上述的接口,且可以是诸如ZigBee(注册商标)的NFC接口。
以上已经说明了游戏机100的配置。以下,将说明控制器200的配置。本实施方式的控制器200包括处理单元202、加速度传感器204、陀螺仪传感器206、振动装置208、以及通信单元210。
处理单元202处理从游戏机100接收的信息,并处理从控制器200的加速度传感器204和陀螺仪传感器206提供的信息。例如,处理单元202可以处理从加速度传感器204和陀螺仪传感器206获取的信息,并计算控制器200的状态,如控制器200的加速度或倾斜度。进一步地,处理单元202可以简单地将从加速度传感器204和陀螺仪传感器206获得的信息发送给游戏机100,以及接收该信息的游戏机100可以确定控制器200的状态。
加速度传感器204基于用户的操作来检测控制器200的加速度。进一步地,陀螺仪传感器206基于用户的操作来检测控制器200的角速度和角加速度。振动装置208通过基于由游戏机100生成的振动数据而振动,将振动的触觉反馈提供给用户。进一步地,该振动装置是触觉装置的一个例子。
振动装置208可以是一种配备有振动器(如马达旋转轴附加有形状偏置重量的偏心马达)的装置,。进一步地,振动装置208可以是一种配备有振动器(如语音线圈马达、压电致动器或电磁线性致动器)的装置。由于语音线圈马达能够在宽频带内振动,且具有快的响应速度,因而与偏心马达相比,语音线圈马达能进行更为多样的触觉反馈。进一步地,语音线圈马达能生成可听频带的声音。进一步地,通信单元210用于进行与诸如游戏机100的其他装置的信息发送与接收。
<2.检测与虚拟对象的接触的监听器>
以上已说明了根据本实施方式的游戏机100和控制器200的配置。以下将说明本实施方式中放置在由用户操作的虚拟操作对象400a中的监听器。
图3为概念性地示出根据本公开的监听器500的示意图。如图3中所示,监听器500被放置在由用户操作的虚拟操作对象400a中。监听器500检测与放置的虚拟操作对象400a的接触,且在另一个虚拟对象400接触监听器500的情况下,物理引擎108识别该接触,以及振动数据生成单元112基于从物理引擎108提供的信息生成振动数据。换言之,当另一虚拟对象400接触监听器500时,控制器200的振动装置208振动,且用户能接收触觉反馈,该反馈指明,另一虚拟对象400接触了虚拟操作对象400a。
进一步地,在图3中,以球形表示由用户操作的虚拟操作对象400a,但是虚拟操作对象400a可以是类人形状或杆状。进一步地,在图3中,监听器500被放置在虚拟操作对象400a的一部分之中,但是监听器500可以被放置在整个虚拟操作对象400a之中。进一步地,监听器500可以被放置在虚拟操作对象400a的表面上,或是被放置在虚拟操作对象400a内部,且不特别限制放置监听器500的方法。
进一步地,监听器500可以不仅检测与虚拟操作对象400a的接触,也可以检测到达虚拟操作对象400a的声音。进一步地,监听器500可以检测由与虚拟操作对象400a接触的另一虚拟对象400引起的声音。
<3.对于用户的振动反馈>
以上已说明了检测与虚拟操作对象400a的接触的监听器500。以下,将说明一个例子,其中,在根据本实施方式的系统中,将振动反馈提供给用户。图4示出了一个例子,其中,用户通过操作控制器200而操作虚拟操作对象400a。
在图4中,控制器200的数目以及与控制器200对应的虚拟操作对象400a的数目为2,且发生了球形虚拟对象400b与一个虚拟操作对象400a碰撞的事件。此时,如图4中所示,对应于与球形虚拟对象400b碰撞的虚拟操作对象400a的控制器200振动。另一方面,对应于未与球形虚拟对象400b碰撞的虚拟操作对象400a的控制器200不振动。
在根据本实施方式的系统中,每个虚拟对象400具有与虚拟对象400相关联的属性,且每个虚拟对象400具有对应于该属性的振动数据。进一步地,振动数据生成单元112可以基于每个虚拟对象400的振动数据而生成振动数据。进一步地,如上所述,虚拟对象400的属性可以包括虚拟对象400的质量、刚度、材料、尺寸、形状等等。
当用户玩游戏或做类似事情时,用户可能想接收基于与虚拟操作对象400a接触的虚拟对象400的属性的反馈,而非由用户操作的虚拟操作对象400a的触摸感。因此,在根据本实施方式的系统中,基于与虚拟操作对象400a接触的另一虚拟对象400b的属性生成振动数据。
从而,例如,随着与虚拟操作对象400a碰撞的另一虚拟对象400b的质量的增加,反馈给用户的振动也可以增加。进一步地,随着与虚拟操作对象400a碰撞的另一虚拟对象400的刚度的增加,控制器200振动的时间也可以减少。进一步地,当与虚拟操作对象400a碰撞的另一虚拟对象400的刚度低时,可以将具有长的回响剩余的振动反馈给用户。
进一步地,反馈给用户的振动可以根据虚拟操作对象400a与另一虚拟对象400碰撞时的相对速度或接触位置而变化。例如,当虚拟操作对象400a与另一虚拟对象碰撞时的相对速度快时,可以将大的振动反馈给用户。进一步地,当另一虚拟对象400的角落部位与虚拟操作对象400a碰撞时,可以将小的振动反馈给用户。
将结合图5更详细地说明根据本实施方式的振动反馈。图5为示出其中木立方块虚拟对象400c接触虚拟操作对象400a的状态的示意图。从而,用户能得到与木接触的触觉反馈。此时,例如,当木质的虚拟对象400c具有比具备金属属性的虚拟对象400的质量更小的属性时,用户将接收比具有金属属性的虚拟对象400与之接触的情形更小的振动反馈。
进一步地,在木质的虚拟对象400c的角落部位与虚拟操作对象400a碰撞的情况下,用户将接收比木质的虚拟对象400c的表面与虚拟操作对象400a碰撞的情形更小的短振动反馈。
已结合图5说明了其中要接触的虚拟对象400具有木属性的例子。然而,例如,在虚拟对象400具有金属属性的情况下,控制器200可能振动并带有回响。进一步地,在要接触的虚拟对象400具有橡胶属性的情况下,控制器200可能振动且不带有回响。
换言之,在要接触的虚拟对象400具有金属属性时,控制器200可能最初进行声音尖利的和大的振动,然后,其振动表现为比最初振动更小的振动持续一段时间。进一步地,在要接触的虚拟对象400具有橡胶属性时,控制器200可能最初进行声音沉闷的和大的振动,然后不再振动。
如上所述,控制器200基于与虚拟操作对象400a接触的虚拟对象400的属性信息而振动,且从而提高了用户能够获得的虚拟的现场感。进一步地,由于虚拟对象400具有对应于属性信息的振动数据,该振动数据实时地生成。换言之,由于实时地生成振动数据,在虚拟空间中发生接触后,振动反馈被无延时地提供给用户。进一步地,由于振动数据与每个虚拟对象400相对应,可以容易地将振动数据提供给每个虚拟对象400。
注意,在以上实例中,基于与虚拟操作对象400a接触的虚拟对象400的属性来生成振动数据。然而,可以根据虚拟操作对象400a的属性来生成振动数据。进一步地,可以基于虚拟操作对象400a的属性以及与虚拟操作对象400a接触的虚拟对象400的属性来生成振动数据。相应地,提高了用户能够获得的虚拟的现场感。
进一步地,振动反馈的配置可以被分成两部分或更多。例如,振动反馈可以被分成“碰撞”和“回响”的两个阶段。此时,在碰撞阶段,控制器200可根据虚拟操作对象400a的属性而振动,且在回响阶段,控制器200可基于与虚拟操作对象400a接触的虚拟对象400的属性而振动。进一步地,可以设置用于选择控制器200是基于碰撞的虚拟对象400的属性还是被碰撞的虚拟对象400的属性而振动的模式,且用户可以选择该模式。
进一步地,如上所述,监听器500可以检测声音连同虚拟对象400的接触。如上所述,在图4中,其中球形虚拟对象400b未与虚拟操作对象400a接触的控制器200不振动。然而,未与球形虚拟对象400b接触的虚拟操作对象400a的监听器500可以检测由碰撞产生的声音,且可以从安装在控制器200或振动装置208中的扬声器输出碰撞声。
<4.本实施方式的系统中的过程>
以上已说明了根据本实施方式的系统中对于用户的振动反馈。以下,将说明根据本实施方式的系统的各部件进行的过程。图6为示出由游戏机100的各部件进行的过程的流程图。
首先,在S100中,触觉引擎110识别由用户操作的虚拟操作对象400a的属性。之后,在S102中,物理引擎108检测与监听器500的接触。换言之,物理引擎108检测另一虚拟对象400与虚拟操作对象400a之间的碰撞或诸如此类的事件。
之后,在S104中,处理单元102确定其中监听器500检测接触的检测模式是否为基于虚拟操作对象400a的属性来反馈振动的模式。在S104中,如果处理单元102确定其中监听器500检测接触的检测模式是基于虚拟操作对象400a的属性来反馈振动的模式,则过程进行至S106。
在S106中,触觉引擎110获取与虚拟操作对象400a相关联的振动数据。之后,在S110中,物理引擎108计算虚拟操作对象400a与另一虚拟对象400碰撞时的相对速度、接触位置等等。
之后,在S112中,处理单元102将与由物理引擎108计算的相对速度、接触位置等有关的信息以及与在S104中确定的模式有关的信息发送给触觉引擎110,以及触觉引擎110的振动数据生成单元112基于获取的信息生成待输出的振动数据。此处,振动数据生成单元112根据基于虚拟操作对象400a的属性的振动数据以及诸如由物理引擎108计算的相对数据和接触位置的信息而生成待输出的振动数据。
在S104中,如果处理单元102确定其中监听器500检测接触的检测模式不是基于虚拟操作对象400a的属性来反馈振动的模式,则过程进行至S108。在S108中,触觉引擎110获取与未由用户操作的虚拟对象400(也即与虚拟操作对象400a碰撞的虚拟对象400)相关联的振动数据。
之后,与上述过程类似,在S110中,物理引擎108计算相对速度、接触位置等等。之后,在S112中,触觉引擎110的振动数据生成单元112根据基于与虚拟操作对象400a碰撞的虚拟对象400的属性的振动数据以及诸如由物理引擎108计算的相对速度和接触位置的信息而生成振动数据。进一步地,如上所述,振动数据生成单元112可以基于虚拟操作对象400a的属性、与虚拟操作对象400a碰撞的虚拟对象400的属性、以及诸如由物理引擎108计算的相对速度和接触位置的信息来生成待输出的振动数据。
<5.由虚拟操作对象上的非接触事件引起的反馈>
以上已说明了其中当另一虚拟对象400与由用户操作的虚拟操作对象400a接触时给出振动反馈的例子。以下,将说明其中当另一虚拟对象400未与虚拟操作对象400a碰撞时给出振动反馈的例子。
图7为示出其中基于震荡波802而给出振动反馈的例子的示意图,该震荡波802由放置在与虚拟操作对象400a相分离的位置的震荡波生成源800生成。进一步地,震荡波生成源800可以例如是爆炸,且可以由虚拟空间内的物理引擎108来模拟震荡波的传播。
在图7的实例中,当由发生在虚拟空间中的爆炸引起的震荡波802到达放置在虚拟操作对象400a中的监听器500时,给出振动反馈。此时,可根据虚拟操作对象400a与震荡波生成源800之间介质的性质来给出振动反馈。
例如,在介质为空气的情况下的振动反馈与在介质为水的情况下的振动反馈在振动强度方面可能不同。此时,在介质为水的情况下,振动可能比在介质为空气的情况下的振动更弱。这是因为取决于介质,所模拟的震荡波802的传播特性有所不同。
相应地,通过振动反馈,用户可能感觉到由用户操作的虚拟操作对象400a例如在水中,从而用户能获得的虚拟现场感得到了进一步提高。
进一步地,可以简单地根据震荡波生成源800与虚拟操作对象400a之间的距离而非虚拟空间内模拟的震荡波802的传播来生成振动数据。相应地,同样由具有更简单配置的物理引擎108给出振动反馈。
<6.基于虚拟对象的形状和材料的振动反馈>
以上已说明了其中基于震荡波802而给出振动反馈的例子。以下,将更详细地说明基于虚拟对象400的形状和材料的振动反馈。
图8至11为示出其中虚拟操作对象400a经过半圆形虚拟对象400d的例子的示意图。以下将说明这种情况下的振动反馈。进一步地,半圆形虚拟对象400d具有摩擦力较小的表面(具有滑溜的感觉)。
如图8至9中所示,当虚拟操作对象400a移动且与半圆形虚拟对象400d的端部接触时,给出具有短振动时间的振动反馈。之后,如图10中所示,当虚拟操作对象400a在半圆形虚拟对象400d的表面上移动时,不给出振动反馈。之后,如图11中所示,当虚拟操作对象400a下来到达半圆形虚拟对象400d的另一端时,再次给出具有短振动时间的振动反馈。
如上所述,在虚拟操作对象400a所接触的表面的形状发生变化(呈图9和11中所示的状态)的时候,向用户呈现具有短振动时间的振动,且从而用户能感觉表面形状的变化。进一步地,当虚拟操作对象400a以小的摩擦力在表面上移动时(图10中的状态下),由于未呈现振动,用户能感觉到滑溜的感觉。进一步地,此时,由于虚拟操作对象400a沿半圆形虚拟对象400d的表面移动,即使通过视觉,用户也能感觉到半圆形虚拟对象400d的膨胀的形状。
进一步地,在虚拟操作对象在具有更大摩擦力的表面(具有粗糙的感觉)上移动的情况下,可以给出不同的振动反馈。图12为示出其中半圆形虚拟对象表面具有大的摩擦力的例子的示意图。此时,当虚拟操作对象400a在半圆形虚拟对象的具有大的摩擦力的表面400e上移动时,连续地将给予用户摩擦感觉的振动提供给用户,从而用户具有粗糙的感觉。进一步地,振动可以根据用户操作虚拟操作对象400a的速度而改变。例如,在图12的例子中,随着用户操作虚拟操作对象400a的速度增加,控制器200振动的时长可能减少。
进一步地,在虚拟操作对象400a从具有小的摩擦力的表面移动至具有大的摩擦力的表面的情况下,要提供给用户的振动改变了,且从而用户能从振动的变化感觉到质地的变化。
<7.具有多个振动装置的可穿戴终端>
以上已说明了由诸如控制器200的由用户抓握的装置给出振动反馈的例子。以下,将说明具有多个振动装置208的夹克型可穿戴终端。
图13为示出夹克型可穿戴终端700的外观实例的示意图。夹克型可穿戴终端700包括多个振动装置208a至208f。进一步地,如图13所示,可以将多个振动装置208a至208f放置为两侧对称。
图14为示出其中将监听器500a至500f放置在虚拟操作对象400a中以与夹克型可穿戴终端700相对应的例子的示意图。监听器500a至500f中的每一个对应于夹克型可穿戴终端700的振动装置208a至208f中的每一个。如上所述,当另一虚拟对象400接触监听器500a至500f时,对应于被接触的监听器500的振动装置208振动。例如,当另一虚拟对象400接触监听器500a时,振动装置208a振动,且从而该振动被反馈给用户。
如图13和图14中所示,在为多个振动装置208放置多个监听器500的情况下,可基于多个监听器500的耦接关系来给出振动反馈。图15为示出这样的多个监听器500的耦接关系的示意图。图15中示出的虚线为指示多个监听器500的耦接关系的耦接元件502。耦接元件502可以是弹簧元件、减震器元件或时延元件。换言之,耦接元件502是与震动的传播特性有关的元件,且可以是与传播速度或传播的衰减有关的元件。
根据耦接元件502模拟了振动的传播,且由发生在一个监听器500中的接触引起的振动传播到周围的监听器500。例如,在另一虚拟对象400接触监听器500a的情况下,振动可被传送到监听器500b、500d和500e。
进一步地,因为耦接元件502为时延元件,周围的监听器500振动的时间比其中发生碰撞的监听器500要晚。例如,在另一虚拟对象400接触监听器500a的情况下,振动可能首先传送到监听器500b、500d和500e,且振动可能被略微延迟,然后传送至监听器500c和500f。相应地,用户能感觉到振动的扩散。
进一步地,当耦接元件502为弹簧元件时,用户能够具有诸如具有斥力的对象(例如,诸如其中具有气体的球的对象)的碰撞的触摸感。进一步地,当耦接元件502为减震器元件时,用户能够具有如同用户穿上了能够吸收震动的衣服的触摸感。
如上所述,由于基于多个监听器500的耦接关系而给出振动反馈,用户能感觉到更多样的振动反馈。
进一步地,取决于碰撞的虚拟对象400的大小,用于检测碰撞的监听器500的数目可能变化。图16为示出碰撞的虚拟对象400的大小与用于检测碰撞的监听器500之间关系的示意图。
例如,如图16中所示,在其直径比一个监听器500的宽度或高度小的虚拟对象400f与监听器500碰撞的情况下,一个监听器500可能检测该碰撞。进一步地,在其直径比一个监听器500的宽度或高度大但小于两个监听器500的虚拟对象400g与监听器500碰撞的情况下,垂直方向上的两个监听器500和水平方向上的两个监听器500,即总共四个监听器500,可能检测该碰撞。进一步地,在其直径比两个监听器500的宽度或高度大但小于三个监听器500的虚拟对象400h与监听器500碰撞的情况下,垂直方向上的三个监听器500和水平方向上的两个监听器500,即总共六个监听器500,可能检测该碰撞。
进一步地,取决于碰撞的虚拟对象400的质量或速度或从该质量或速度获得的虚拟对象400的动能大小,用于检测碰撞的监听器500的数目可能变化。进一步地,要提供的振动强度同时变化。换言之,随着碰撞的虚拟对象400的质量、速度或动能增加,用于检测碰撞的监听器500的数目可能增加,或振动强度可能增加。
进一步地,基于其中放置监听器500的虚拟操作对象400a的属性,用于检测振动的监听器500的数目和振动的强度可能变化。例如,如橡胶一样,在其中放置多个监听器500的虚拟操作对象400a具有吸收震动的属性的情况下,可能减少用于检测碰撞的监听器500的数目。进一步地,此时通过碰撞要反馈给用户的振动大小可能减小。
<8.监听器检测接触的检测模式>
以上已说明了其中将用于多个振动装置208的多个监听器500放置在虚拟操作对象400a中的例子。以下将说明监听器500检测接触的范围。如上所述,放置在虚拟操作对象400a中的监听器500检测与其他虚拟对象400的接触。然而,取决于用户,用户希望接收反馈的想法的频度可能不同。
在这方面,在本实施方式中,提供了监听器500检测接触的在范围上有所不同的多个模式。多个模式包括“其中监听器500根本没有检测到振动的模式”、“其中当虚拟对象400接触监听器500时监听器500检测到振动的模式”、以及“其中监听器500检测所有振动的模式”。此处,“其中当虚拟对象400接触监听器500时监听器500检测到振动的模式”与“其中监听器500检测到所有振动的模式”之间的不同点可以是例如是否检测到由震荡波生成源800生成的震荡波802,或可以是是否检测到由与虚拟对象400的接触引起的振动。
进一步地,如上所述,监听器500也检测声音。相应地,类似地,可以设置监听器500检测声音所在范围的多个模式。例如,与声音有关的多个模式包括“其中监听器500未检测到任何声音的模式”、“其中监听器500检测到某个范围的声音的模式”以及“其中监听器500检测到所有声音的模式”。
如上所述,由于设置了与监听器500检测振动和声音的范围有关的多个模式,用户能选择适合他/她的偏好的模式。
进一步地,在虚拟空间内,由用户操作的虚拟操作对象400a可能在用户不希望的位置与其他虚拟对象400发生接触。例如,在用户操作类人状虚拟操作对象400a的情况下,虚拟操作对象400a可能与类人状虚拟操作对象400a的脚下的诸如草或石头的虚拟对象400相接触。在这种情况下,不希望监听器500检测所有接触且将振动反馈给用户。
在这方面,在本实施方式中,除了与监听器500检测振动和声音的范围有关的模式,可以设置其中监听器500基于从视线检测装置提供的信息来检测振动和声音的模式。
图17为示出包括视线检测装置600的系统的配置的示意图。根据本实施方式的系统包括视线检测装置600,该装置检测用户的视线,且视线检测装置600包括将视线检测单元602无线地与游戏机100连接的通信单元604。
视线检测装置600可以是例如附设到用户的头部的装置(例如诸如头饰的装置)。在这种情况下,视线检测单元602可以包括成像单元,且基于由该成像单元捕获的图像来检测用户的视线。进一步地,视线检测单元602可以是陀螺仪传感器和/或加速度传感器,且基于由该传感器检测的角速度、角加速度或加速度来检测用户的视线。
在根据本实施方式的系统具有上述配置的情况下,基于从视线检测装置600提供的信息,监听器500可以检测虚拟空间内用户的视场中虚拟操作对象400a和虚拟对象400之间的接触。此时,监听器500不检测未在虚拟空间内的用户视场之中的虚拟操作对象400a与虚拟对象400之间的接触。
当如上所述使用基于从视线检测装置600提供的信息的、与虚拟空间内的用户视场有关的信息时,阻止了振动在用户未预期的时刻频繁出现,且当用户注意某虚拟对象400时,获得振动反馈。
进一步地,在以上实施方式中,视线检测装置600用于检测虚拟空间内用户的视场。然而,在正常显示器的情况下,显示器上绘制的范围可以是用户的视场范围。
<9.具有扬声器的可穿戴终端>
以上已说明了包括视线检测装置600的系统例子。以下将说明包括扬声器的夹克型可穿戴终端700的操作。图18为示出包括扬声器212的夹克型可穿戴终端700的外观的示意图。从图18中可以理解,扬声器212被放置在靠近用户的耳朵的位置。
通过夹克型可穿戴终端700,将振动和声音分别提供给用户,该夹克型可穿戴终端700包括能输出声音的诸如语音线圈马达的振动装置208以及图18中所示的扬声器212,且表示了虚拟对象400的位置关系。
例如,由于一人基于左右耳的音量差别和相位差别而察觉了声音生成源的方向,通过从扬声器212输出的声音表示了声音生成源的方向。进一步地,由于主要基于声音大小来察觉到声音生成源的距离,通过改变从诸如语音线圈马达的振动装置208输出的声音大小,能表达虚拟对象400在虚拟空间中的接触位置。
此时,例如,在与虚拟对象400的接触出现在虚拟空间内用户的胸部的情况下,将距用户胸部的距离降序排列,从振动装置208a和208d输出大的声音,从振动装置208b和208e输出中等声音,且从振动装置208c和208f输出小的声音。此时,例如,可进行控制,使得从位于远端位置的振动装置208输出与用户的耳朵至该振动装置208的距离的平方成反比的低音量。
进一步地,由于偏好当振动装置208振动时用户不听到生成的振动声,可以控制扬声器212或另一振动装置208,使得该振动装置208的振动声被抵消。此时,在夹克型可穿戴终端700中,由于扬声器212对于用户的耳朵的相对位置是固定的,可以基于输入到振动装置208中的波形来控制扬声器212,使得无需使用麦克风振动装置208的振动声便被抵消。
进一步地,通过在扬声器212附近放置麦克风,检测被假定为通过该麦克风到达用户的耳朵的声音,以及实时复制反相的声音,可以以高精确度抵消振动装置208的振动声和抵消环境声。
<10.振动数据生成方法>
以上已说明了包括扬声器212的夹克型可穿戴终端700的操作。以下,将说明根据本实施方式的系统中使用的振动数据生成方法。图19至21为示出在根据本实施方式的系统中使用的生成振动数据的过程的示意图。
图19左边的示意图示出了当经由加速度传感器跟踪真实对象(例如具有大的摩擦系数的表面)时通过采样加速度数据而获得的波形。进一步地,图19右边的示意图为示出所采集的波形(图19左边的示意图)的频率分量的图。
图20示出了粉红噪音的波形以及频率分量图。图21的左边示意图示出了当使用图19右边示意图中所示的频率特性将均衡器应用于图20的粉红噪音时的波形。
如上所述,基于从真实对象获得的波形,通过将均衡器应用于粉红噪音,生成根据本实施方式的系统中使用的振动数据。之后,根据虚拟操作对象400a的速度来复制“均衡的粉红噪音”。相应地,实施了“连续的触觉表达”以及“对象特定的触觉表达”。
<11.补充>
以上,已结合附图说明了本公开的优选实施方式,然而本公开不限于以上实例。本领域技术人员可以找到所附权利要求范围内的各种变更和修改,且应当懂得,它们自然地落在本公开的技术范围内。
例如,在以上实例中,已将振动数据描述为触觉数据的一个例子。然而,触觉数据不限于振动数据。例如,触觉数据可以是与电刺激有关的触觉数据,或是与热有关的触觉数据。此时,监听器500可以检测热或电刺激。
进一步地,类似于上述的振动数据,可以基于虚拟对象400的属性来生成与热或电刺激有关的触觉数据。例如,当虚拟操作对象400a具有金属的属性时,由于金属具有高的导热系数,可以生成触觉数据,使得热被快速传导。另一方面,当虚拟操作对象400a具有木的属性时,由于木具有比金属低的导热系数,可以生成触觉数据,使得以比在热源变为具有金属属性的虚拟对象400的情况下的传热更为柔和的方式传热。进一步地,类似地,当虚拟操作对象400a具有金属的属性时,由于金属具有高的电导率,可以生成触觉数据,使得将强的电刺激反馈给用户。另一方面,当虚拟操作对象400a具有木的属性时,由于木具有比金属更低的电导率,不会生成触觉数据。
进一步地,以上已说明了其中监听器500检测从位于与虚拟操作对象400a分离的位置的震荡波生成源800生成的震荡波802的例子。此时,夹克型可穿戴终端700振动,但是用户抓握的控制器200不振动。换言之,取决于装置的配置(或类型),触觉反馈可能不同。
进一步地,可以使用通用处理器来实现物理引擎108与触觉引擎110。进一步地,可以提供用于操作上述处理器的计算机程序。进一步地,可以提供其内存储有该程序的存储介质。
<12.结论>
如上所述,在根据本公开的实施方式中,根据与虚拟对象400相关联的属性信息生成振动数据。进一步地,在根据本公开的实施方式中,基于其中放置监听器500的虚拟操作对象400a与另一虚拟对象400接触时的相对速度或接触位置来生成振动数据。相应地,用户能具备现场感地接收振动反馈。
进一步地,在根据本公开的系统中,基于与接触其中放置监听器500的虚拟操作对象400a的另一虚拟对象400关联的属性信息来生成振动数据。当进行游戏等时,用户希望接收与虚拟操作对象400a接触的虚拟对象400的触觉反馈,而不是由用户操作的虚拟操作对象400a的触摸感。从而,以上述配置,用户能更具现场感地接收反馈。
进一步地,在根据本公开的系统中,虚拟对象400具有与属性信息对应的振动数据,且从而实时地生成振动数据。进一步地,由于每个虚拟对象400对应有振动数据,可以容易地将振动数据提供给每个虚拟对象400。
进一步地,在根据本公开的系统中,基于多个监听器500的耦接关系给出振动反馈,且从而用户能感觉到各种振动反馈。
此外,也可以如下配置本技术。
(1)一种信息处理装置,其包括:
虚拟空间数据生成单元,配置为生成与包括虚拟对象的虚拟空间有关的数据,所述虚拟对象具有属性;
监听器放置单元,配置为放置用于检测与所述虚拟对象的接触的监听器;
虚拟对象,其中放置有所述监听器;以及
触觉数据生成单元,配置为在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据。
(2)根据(1)的信息处理装置,其中所述其中放置有所述监听器的虚拟对象为用户操作的虚拟对象。
(3)根据(1)或(2)的信息处理装置,其中所述触觉数据为与振动有关的数据。
(4)根据(1)至(3)中任一项的信息处理装置,其中所述虚拟空间数据生成单元形成所述虚拟对象,使得属性与所述虚拟对象相关联。
(5)根据(4)的信息处理装置,其中所述虚拟对象的所述属性信息包括所述虚拟对象的质量、刚度、材料、大小、形状、位置以及速度中的至少一者。
(6)根据(5)的信息处理装置,其中所述触觉数据生成单元基于所述由用户操作的虚拟对象的属性来生成所述触觉数据。
(7)根据(5)的信息处理装置,其中所述触觉数据生成单元基于不同于所述由用户操作的虚拟对象的另一虚拟对象的属性来生成所述触觉数据。
(8)根据(5)的信息处理装置,其中所述触觉数据生成单元基于所述由用户操作的虚拟对象的属性和不同于所述由用户操作的虚拟对象的另一虚拟对象的属性两者来生成所述触觉数据。
(9)根据(1)至(8)中任一项的信息处理装置,其中所述触觉数据生成单元进一步根据其中放置有所述监听器的所述虚拟对象与另一虚拟对象之间的相对速度或接触位置来生成所述触觉数据。
(10)根据(1)至(9)中任一项的信息处理装置,其中所述触觉数据生成单元基于存在于与其中放置有所述监听器的虚拟对象相分离的位置的震动生成源来生成所述触觉数据。
(11)根据(10)的根据权利要求10的信息处理装置,其中所述触觉数据生成单元基于所述其中放置有所述监听器的虚拟对象与所述震动生成源之间的介质来生成所述触觉数据。
(12)根据(1)至(11)中任一项的信息处理装置,其中所述监听器放置单元将多个监听器放置在所述虚拟对象中,以及
所述触觉数据生成单元基于与所述多个监听器中的至少一者对应的触觉装置的触觉数据以及所述多个监听器之间的耦接关系,来生成与所述多个监听器中的另一监听器对应的触觉装置的触觉数据。
(13)根据(12)的信息处理装置,其中所述耦接关系与传播特性有关。
(14)根据(13)的信息处理装置,其中所述传播特性与传播速度或传播衰减有关。
(15)根据(1)至(14)中任一项的信息处理装置,其中所述触觉数据生成单元进一步基于从视线检测单元提供的信息来生成所述触觉数据,所述视线检测单元配置为检测用户的视线。
(16)根据(15)的信息处理装置,其中所述触觉数据生成单元基于处于所述虚拟空间中的用户的视场中的虚拟对象与所述由用户操作的虚拟对象之间的接触来生成所述触觉数据。
(17)根据(1)至(16)中任一项的信息处理装置,其中所述触觉数据为与电刺激或热有关的数据。
(18)一种方法,其包括:
生成与包括虚拟对象的虚拟空间有关的数据,所述虚拟对象具有属性;
放置用于检测与所述虚拟对象的接触的监听器;
使得所述监听器被放置在所述虚拟对象中;以及
在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据。
(19)一种计算机程序,其使得处理器执行:
生成与包括虚拟对象的虚拟空间有关的数据,所述虚拟对象具有属性;
放置用于检测与所述虚拟对象的接触的监听器;
使得所述监听器被放置在所述虚拟对象中;以及
在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据。
附图标记列表
100 游戏机
102 处理单元
104 虚拟空间数据生成单元
106 监听器放置单元
108 物理引擎
110 触觉引擎
112 振动数据生成单元
114 音频数据生成单元
116 通信单元
200 控制器
202 处理单元
204 加速度传感器
206 陀螺仪传感器
208 振动装置
210 通信单元
212 扬声器
300 显示装置
400 虚拟对象
400a 虚拟操作对象
500 监听器
502 耦接元件
600 视线检测装置
602 视线检测单元
604 通信单元
700 可穿戴终端
800 震荡波生成源
802 震荡波。

Claims (18)

1.一种信息处理装置,其包括:
虚拟空间数据生成单元,配置为生成与包括虚拟对象的虚拟空间有关的数据,所述虚拟对象具有属性;
监听器放置单元,配置为放置用于检测与所述虚拟对象的接触的监听器;
虚拟对象,其中放置有所述监听器;以及
触觉数据生成单元,配置为在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据,
其中所述监听器放置单元将多个所述监听器放置在所述虚拟对象中,以及
所述触觉数据生成单元基于针对与多个所述监听器中的至少一者对应的所述触觉装置的所述触觉数据以及多个所述监听器之间的耦接关系,来生成针对与多个所述监听器中的另一监听器对应的所述触觉装置的所述触觉数据。
2.根据权利要求1所述的信息处理装置,其中其中放置有所述监听器的所述虚拟对象为用户操作的所述虚拟对象。
3.根据权利要求1所述的信息处理装置,其中所述触觉数据为与振动有关的数据。
4.根据权利要求2所述的信息处理装置,其中所述虚拟空间数据生成单元形成所述虚拟对象,使得属性与所述虚拟对象相关联。
5.根据权利要求4所述的信息处理装置,其中所述虚拟对象的所述属性信息包括所述虚拟对象的质量、刚度、材料、大小、形状、位置以及速度中的至少一者。
6.根据权利要求5所述的信息处理装置,其中所述触觉数据生成单元基于由所述用户操作的所述虚拟对象的所述属性来生成所述触觉数据。
7.根据权利要求5所述的信息处理装置,其中所述触觉数据生成单元基于不同于由所述用户操作的所述虚拟对象的所述另一虚拟对象的所述属性来生成所述触觉数据。
8.根据权利要求5所述的信息处理装置,其中所述触觉数据生成单元基于由所述用户操作的所述虚拟对象的所述属性和不同于由所述用户操作的所述虚拟对象的所述另一虚拟对象的所述属性两者来生成所述触觉数据。
9.根据权利要求1所述的信息处理装置,其中所述触觉数据生成单元进一步根据其中放置有所述监听器的所述虚拟对象与另一虚拟对象之间的相对速度或接触位置来生成所述触觉数据。
10.根据权利要求1所述的信息处理装置,其中所述触觉数据生成单元基于存在于与其中放置有所述监听器的所述虚拟对象相分离的位置的震动生成源来生成所述触觉数据。
11.根据权利要求10所述的信息处理装置,其中所述触觉数据生成单元基于其中放置有所述监听器的所述虚拟对象与所述震动生成源之间的介质来生成所述触觉数据。
12.根据权利要求1所述的信息处理装置,其中所述耦接关系与传播特性有关。
13.根据权利要求12所述的信息处理装置,其中所述传播特性与传播速度或传播衰减有关。
14.根据权利要求1所述的信息处理装置,其中所述触觉数据生成单元进一步基于从视线检测单元提供的信息来生成所述触觉数据,所述视线检测单元配置为检测用户的视线。
15.根据权利要求14所述的信息处理装置,其中所述触觉数据生成单元基于处于所述虚拟空间中的所述用户的视场中的所述虚拟对象与由用户操作的所述虚拟对象之间的接触来生成所述触觉数据。
16.根据权利要求1所述的信息处理装置,其中所述触觉数据为与电刺激或热有关的数据。
17.一种信息处理方法,其包括:
生成与包括虚拟对象的虚拟空间有关的数据,所述虚拟对象具有属性;
放置用于检测与所述虚拟对象的接触的监听器;
使得所述监听器被放置在所述虚拟对象中;以及
在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据,
其中,所述信息处理方法还包括:
将多个所述监听器放置在所述虚拟对象中;以及
基于针对与多个所述监听器中的至少一者对应的所述触觉装置的所述触觉数据以及多个所述监听器之间的耦接关系,来生成针对与多个所述监听器中的另一监听器对应的所述触觉装置的所述触觉数据。
18.一种存储介质,所述存储介质内存储有计算机程序,所述计算机程序使得处理器执行:
生成与包括虚拟对象的虚拟空间有关的数据,所述虚拟对象具有属性;
放置用于检测与所述虚拟对象的接触的监听器;
使得所述监听器被放置在所述虚拟对象中;以及
在所述虚拟对象接触另一虚拟对象时,基于所述虚拟对象的属性信息与所述另一虚拟对象的属性信息中的至少一者来生成用于使触觉装置运行的触觉数据,
其中,所述计算机程序使得处理器还执行:
将多个所述监听器放置在所述虚拟对象中;以及
基于针对与多个所述监听器中的至少一者对应的所述触觉装置的所述触觉数据以及多个所述监听器之间的耦接关系,来生成针对与多个所述监听器中的另一监听器对应的所述触觉装置的所述触觉数据。
CN201680050120.XA 2015-09-08 2016-08-31 信息处理装置、方法和存储介质 Active CN107924236B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562215572P 2015-09-08 2015-09-08
US62/215,572 2015-09-08
PCT/JP2016/075581 WO2017043400A1 (ja) 2015-09-08 2016-08-31 情報処理装置、方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
CN107924236A CN107924236A (zh) 2018-04-17
CN107924236B true CN107924236B (zh) 2021-09-21

Family

ID=58239593

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201680050120.XA Active CN107924236B (zh) 2015-09-08 2016-08-31 信息处理装置、方法和存储介质
CN201680050699.XA Active CN107949818B (zh) 2015-09-08 2016-09-08 信息处理设备、方法和计算机程序

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201680050699.XA Active CN107949818B (zh) 2015-09-08 2016-09-08 信息处理设备、方法和计算机程序

Country Status (6)

Country Link
US (5) US10331214B2 (zh)
EP (3) EP3349096B1 (zh)
JP (2) JP6834962B2 (zh)
KR (1) KR102639118B1 (zh)
CN (2) CN107924236B (zh)
WO (2) WO2017043400A1 (zh)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102639118B1 (ko) * 2015-09-08 2024-02-22 소니그룹주식회사 정보 처리 장치, 방법 및 컴퓨터 프로그램
CN106371573B (zh) * 2015-12-04 2020-06-02 北京智谷睿拓技术服务有限公司 触觉反馈的方法、装置和虚拟现实交互系统
US10969867B2 (en) 2016-12-15 2021-04-06 Sony Interactive Entertainment Inc. Information processing system, controller device, controller device control method and program
JP6626992B2 (ja) 2016-12-15 2019-12-25 株式会社ソニー・インタラクティブエンタテインメント 情報処理システム、振動制御方法、及びプログラム
US10963055B2 (en) 2016-12-15 2021-03-30 Sony Interactive Entertainment Inc. Vibration device and control system for presenting corrected vibration data
EP3561620B1 (en) * 2016-12-22 2023-08-02 Citizen Watch Co., Ltd. Machine tool and control device therefor
US10592199B2 (en) * 2017-01-24 2020-03-17 International Business Machines Corporation Perspective-based dynamic audio volume adjustment
WO2018193514A1 (ja) 2017-04-18 2018-10-25 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11145172B2 (en) 2017-04-18 2021-10-12 Sony Interactive Entertainment Inc. Vibration control apparatus
JP6887011B2 (ja) 2017-04-19 2021-06-16 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
US11458389B2 (en) 2017-04-26 2022-10-04 Sony Interactive Entertainment Inc. Vibration control apparatus
JP6936976B2 (ja) * 2017-05-24 2021-09-22 株式会社村田製作所 刺激伝達装置
JP6837921B2 (ja) 2017-06-02 2021-03-03 任天堂株式会社 ゲームプログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6613267B2 (ja) * 2017-06-02 2019-11-27 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
JP6653293B2 (ja) 2017-06-05 2020-02-26 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、および、情報処理方法
WO2018230790A1 (ko) 2017-06-13 2018-12-20 주식회사 비햅틱스 헤드 마운티드 디스플레이
JP6771435B2 (ja) 2017-07-20 2020-10-21 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および位置情報取得方法
JP6893561B2 (ja) 2017-08-24 2021-06-23 株式会社ソニー・インタラクティブエンタテインメント 振動制御装置
CN111033441B (zh) 2017-08-24 2023-09-12 索尼互动娱乐股份有限公司 振动控制装置
US11198059B2 (en) 2017-08-29 2021-12-14 Sony Interactive Entertainment Inc. Vibration control apparatus, vibration control method, and program
KR102354274B1 (ko) * 2017-11-17 2022-01-20 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 Vr 시나리오에서의 롤 플레이 시뮬레이션 방법 및 단말 기기
WO2019124068A1 (ja) * 2017-12-19 2019-06-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2021073749A (ja) * 2018-03-07 2021-05-13 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11709550B2 (en) 2018-06-19 2023-07-25 Sony Corporation Information processing apparatus, method for processing information, and program
JPWO2020026443A1 (ja) * 2018-08-03 2021-08-19 株式会社ソニー・インタラクティブエンタテインメント 触覚表現用振動制御システム、触覚表現用振動発生装置、触覚表現用振動制御装置、および触覚表現用振動制御方法
US10569167B1 (en) * 2018-08-22 2020-02-25 Abdul Hotaki System and methods for providing wireless feedback to a video game
EP3861384A4 (en) * 2018-10-01 2022-05-11 LEIA Inc. HOLOGRAPHIC REALITY SYSTEM, MULTI-VIEW DISPLAY DEVICE, AND METHOD
JPWO2020079854A1 (ja) * 2018-10-19 2021-09-02 株式会社ソニー・インタラクティブエンタテインメント コントローラ装置、その制御方法、及びプログラム
US11813518B2 (en) 2018-10-19 2023-11-14 Sony Interactive Entertainment Inc. Information processing system, controller apparatus, information processing apparatus, and program
JP2020080122A (ja) * 2018-11-14 2020-05-28 ソニー株式会社 情報処理装置、情報処理方法、および記憶媒体
KR20200070607A (ko) * 2018-12-10 2020-06-18 (주)리얼감 강도를 이용한 포스 피드백 방법 및 시스템, 기계로 읽을 수 있는 저장 매체
KR20200073951A (ko) * 2018-12-13 2020-06-24 (주)리얼감 포스 피드백 방법 및 시스템, 기계로 읽을 수 있는 저장 매체
US11257282B2 (en) * 2018-12-24 2022-02-22 Intel Corporation Methods and apparatus to detect collision of a virtual camera with objects in three-dimensional volumetric model
KR102233004B1 (ko) * 2018-12-28 2021-03-26 중앙대학교 산학협력단 가상현실 노래방 인터랙션 방법 및 장치
JP7456388B2 (ja) 2019-01-21 2024-03-27 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
KR102218091B1 (ko) * 2019-01-22 2021-02-19 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
KR102280916B1 (ko) * 2019-05-24 2021-07-26 한양대학교 산학협력단 임의 위치에서 발생하는 진동 피드백 구현 장치 및 방법
US11397508B1 (en) * 2019-06-11 2022-07-26 Hyper Reality Partners, Llc Virtual experience pillars
JP7360282B2 (ja) 2019-09-10 2023-10-12 株式会社東海理化電機製作所 制御装置、制御方法、及びプログラム
JP7360281B2 (ja) * 2019-09-10 2023-10-12 株式会社東海理化電機製作所 制御装置、制御方法、及びプログラム
JP2021067877A (ja) * 2019-10-25 2021-04-30 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、ヘッドマウントディスプレイ、および画像表示方法
WO2021145025A1 (ja) 2020-01-16 2021-07-22 ソニーグループ株式会社 情報処理装置、情報処理端末及びプログラム
JP7170680B2 (ja) * 2020-02-13 2022-11-14 任天堂株式会社 ゲームシステム、ゲームプログラム、情報処理装置、および、ゲーム処理方法
WO2022123667A1 (ja) * 2020-12-09 2022-06-16 日本電信電話株式会社 触覚システム
WO2022269799A1 (ja) * 2021-06-23 2022-12-29 日本電信電話株式会社 擬似触覚提示装置、擬似触覚提示方法、およびプログラム
WO2023108131A1 (en) * 2021-12-10 2023-06-15 Shaw Industries Group, Inc. Visceral surface covering simulator and method of use
WO2023153232A1 (ja) * 2022-02-08 2023-08-17 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
WO2023171078A1 (ja) * 2022-03-07 2023-09-14 アルプスアルパイン株式会社 触覚提示装置、シートシステム、及び触覚提示方法
KR102594789B1 (ko) * 2022-06-08 2023-10-27 한국전자기술연구원 핸드트래킹 기반 슈도햅틱 피드백을 활용한 실감형 인터랙션 방법
WO2024090303A1 (ja) * 2022-10-24 2024-05-02 ソニーグループ株式会社 情報処理装置及び情報処理方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103970265A (zh) * 2013-01-15 2014-08-06 英默森公司 具有触觉反馈的增强现实用户接口
CN104023799A (zh) * 2011-10-25 2014-09-03 阿奎默有限公司 使用移动装置的动作传感器对体育动作进行分析的方法和系统
CN104503578A (zh) * 2009-07-22 2015-04-08 意美森公司 具有横跨平台的触觉反馈的交互式触摸屏游戏象征

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6084587A (en) * 1996-08-02 2000-07-04 Sensable Technologies, Inc. Method and apparatus for generating and interfacing with a haptic virtual reality environment
JP4567817B2 (ja) 1997-09-11 2010-10-20 ソニー株式会社 情報処理装置及びその制御方法
US7084869B2 (en) 2000-03-31 2006-08-01 Massachusetts Institute Of Technology Methods and apparatus for detecting and correcting penetration between objects
WO2005094679A1 (en) * 2004-03-26 2005-10-13 Boston Medical Center Corporation A system and method for gait synchronized vibratory stimulation of the feet
JP4484570B2 (ja) 2004-04-14 2010-06-16 富士ゼロックス株式会社 音響情報処理装置、音響情報提供方法
JP4926799B2 (ja) * 2006-10-23 2012-05-09 キヤノン株式会社 情報処理装置、情報処理方法
KR101310969B1 (ko) 2006-12-01 2013-09-23 삼성전자주식회사 디바이스의 환경을 분석하는 방법 및 이를 이용한 디바이스
WO2008075638A1 (ja) * 2006-12-19 2008-06-26 Nec Corporation 共通データ生成方法およびその装置
CN101496954B (zh) * 2008-01-28 2012-11-21 联想(北京)有限公司 一种游戏控制器及其游戏处理方法
CN101394439B (zh) * 2008-11-10 2011-11-02 华为终端有限公司 自动控制终端振动强度的方法、终端
JP5197521B2 (ja) * 2009-07-29 2013-05-15 京セラ株式会社 入力装置
TWI473490B (zh) 2009-09-03 2015-02-11 Htc Corp 調整事件提示程度的方法與其行動電子裝置及電腦程式產品
JP5278259B2 (ja) 2009-09-07 2013-09-04 ソニー株式会社 入力装置、入力方法及びプログラム
US8487759B2 (en) * 2009-09-30 2013-07-16 Apple Inc. Self adapting haptic device
KR101719507B1 (ko) * 2009-11-17 2017-03-24 임머숀 코퍼레이션 전자 디바이스에서 촉각 대역폭을 증가시키는 시스템들 및 방법들
US8540571B2 (en) * 2010-03-31 2013-09-24 Immersion Corporation System and method for providing haptic stimulus based on position
JP5195859B2 (ja) * 2010-09-27 2013-05-15 トヨタ自動車株式会社 睡眠装置
US8352643B2 (en) 2010-09-30 2013-01-08 Immersion Corporation Haptically enhanced interactivity with interactive content
US20120190460A1 (en) * 2011-01-21 2012-07-26 Cecil Sessions Vibrating Gaming Vest
JP5920862B2 (ja) 2011-03-08 2016-05-18 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、コンピュータプログラム、および情報処理システム
JPWO2013018267A1 (ja) 2011-07-29 2015-03-05 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 提示制御装置、及び提示制御方法
KR101328054B1 (ko) * 2011-08-09 2013-11-08 엘지전자 주식회사 실감 진동을 발생시키는 영상표시장치 및 실감 진동 구현방법
JP2013054645A (ja) 2011-09-06 2013-03-21 Denso Wave Inc 光学的情報読取装置
JP2013150201A (ja) 2012-01-20 2013-08-01 Nec Access Technica Ltd 端末装置、報知制御方法、プログラム
CN103246379A (zh) * 2012-02-10 2013-08-14 联想移动通信科技有限公司 触摸反馈方法、装置及无线终端
US8711118B2 (en) * 2012-02-15 2014-04-29 Immersion Corporation Interactivity model for shared feedback on mobile devices
JP2013187148A (ja) * 2012-03-09 2013-09-19 Gs Yuasa Corp 制御弁式鉛蓄電池
US9785236B2 (en) * 2012-05-25 2017-10-10 Immerz, Inc. Haptic interface for portable electronic device
US9874964B2 (en) * 2012-06-04 2018-01-23 Sony Interactive Entertainment Inc. Flat joystick controller
EP2895050B8 (en) * 2012-09-11 2018-12-19 L.I.F.E. Corporation S.A. Wearable communication platform
KR20140112648A (ko) 2013-03-13 2014-09-24 삼성전기주식회사 수평 진동 발생 장치
US9436282B2 (en) * 2013-03-14 2016-09-06 Immersion Corporation Contactor-based haptic feedback generation
US9606721B2 (en) * 2013-07-22 2017-03-28 Lg Electronics Inc. Mobile terminal and control method thereof
US9293015B2 (en) * 2013-09-09 2016-03-22 Immersion Corporation Electrical stimulation haptic feedback interface
US20150105129A1 (en) * 2013-10-15 2015-04-16 Kevin Chapman Video Game Body Suit
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
US9164587B2 (en) * 2013-11-14 2015-10-20 Immersion Corporation Haptic spatialization system
US9671826B2 (en) * 2013-11-27 2017-06-06 Immersion Corporation Method and apparatus of body-mediated digital content transfer and haptic feedback
CN103995584B (zh) * 2014-04-29 2017-11-17 深圳超多维光电子有限公司 立体交互方法及其显示装置、操作棒和系统
US9679546B2 (en) * 2014-05-16 2017-06-13 Not Impossible LLC Sound vest
US10379614B2 (en) * 2014-05-19 2019-08-13 Immersion Corporation Non-collocated haptic cues in immersive environments
JP2015231098A (ja) 2014-06-04 2015-12-21 ソニー株式会社 振動装置、および振動方法
GB201410648D0 (en) * 2014-06-14 2014-07-30 Pape Lise S Walking aid providing tactile and visual cues to trigger and improve mobility
CN204484695U (zh) * 2014-06-30 2015-07-22 岳川凯 一种可穿戴式导盲系统
JP2016025620A (ja) 2014-07-24 2016-02-08 ソニー株式会社 画像処理システム、クライアントシステム、画像処理方法、および記憶媒体
US9690381B2 (en) 2014-08-21 2017-06-27 Immersion Corporation Systems and methods for shape input and output for a haptically-enabled deformable surface
KR102254705B1 (ko) * 2014-09-19 2021-05-24 삼성전자주식회사 단말 장치 및 그 제어방법
CN104545936A (zh) * 2014-12-31 2015-04-29 戴晓伟 腰部姿态检测方法及检测结果的触觉反馈方法
KR102639118B1 (ko) * 2015-09-08 2024-02-22 소니그룹주식회사 정보 처리 장치, 방법 및 컴퓨터 프로그램
KR102427212B1 (ko) * 2016-07-07 2022-07-29 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
KR20180019270A (ko) * 2016-08-16 2018-02-26 (주)알비케이이엠디 증강현실 또는 가상현실 구현 기기와 연동되는 햅틱 디바이스
KR102442179B1 (ko) * 2017-11-17 2022-09-08 삼성전자주식회사 웨어러블 장치를 통하여 햅틱 피드백을 제공하는 전자 장치 및 그 방법
US10569167B1 (en) * 2018-08-22 2020-02-25 Abdul Hotaki System and methods for providing wireless feedback to a video game

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104503578A (zh) * 2009-07-22 2015-04-08 意美森公司 具有横跨平台的触觉反馈的交互式触摸屏游戏象征
CN104023799A (zh) * 2011-10-25 2014-09-03 阿奎默有限公司 使用移动装置的动作传感器对体育动作进行分析的方法和系统
CN103970265A (zh) * 2013-01-15 2014-08-06 英默森公司 具有触觉反馈的增强现实用户接口

Also Published As

Publication number Publication date
JPWO2017043400A1 (ja) 2018-06-21
US10353470B2 (en) 2019-07-16
US20210191517A1 (en) 2021-06-24
KR20180051482A (ko) 2018-05-16
KR102639118B1 (ko) 2024-02-22
US11314333B2 (en) 2022-04-26
CN107924236A (zh) 2018-04-17
EP3349096A1 (en) 2018-07-18
EP3690613A1 (en) 2020-08-05
WO2017043400A1 (ja) 2017-03-16
EP3349096A4 (en) 2019-04-10
US10331214B2 (en) 2019-06-25
JP6822408B2 (ja) 2021-01-27
EP3349097A4 (en) 2019-04-10
US10838500B2 (en) 2020-11-17
EP3349097A1 (en) 2018-07-18
JP6834962B2 (ja) 2021-02-24
US20190272038A1 (en) 2019-09-05
JPWO2017043610A1 (ja) 2018-06-28
US10942573B2 (en) 2021-03-09
CN107949818B (zh) 2021-07-27
WO2017043610A1 (ja) 2017-03-16
EP3349096B1 (en) 2023-08-23
EP3349097B1 (en) 2020-04-01
US20180203509A1 (en) 2018-07-19
US20200026355A1 (en) 2020-01-23
CN107949818A (zh) 2018-04-20
US20180203510A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
CN107924236B (zh) 信息处理装置、方法和存储介质
US10974138B2 (en) Haptic surround functionality
US10347093B2 (en) Programmable haptic devices and methods for modifying haptic effects to compensate for audio-haptic interference
JP2020072962A (ja) プログラマブル触覚周辺装置
JP4926799B2 (ja) 情報処理装置、情報処理方法
US8441437B2 (en) Haptic feedback sensations based on audio output from computer devices
EP3258347A2 (en) Systems and methods for providing haptic feedback via a case
US20190384404A1 (en) Virtual reality
US10596459B2 (en) Systems, methods, and/or computer readable storage medium having program, for localized haptic feedback based on position of virtual object

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant