CN109416584A - 信息处理装置、信息处理方法和程序 - Google Patents

信息处理装置、信息处理方法和程序 Download PDF

Info

Publication number
CN109416584A
CN109416584A CN201780041103.4A CN201780041103A CN109416584A CN 109416584 A CN109416584 A CN 109416584A CN 201780041103 A CN201780041103 A CN 201780041103A CN 109416584 A CN109416584 A CN 109416584A
Authority
CN
China
Prior art keywords
haptic stimulus
unit
output
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780041103.4A
Other languages
English (en)
Other versions
CN109416584B (zh
Inventor
横山谅
山野郁男
中川佑辅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN109416584A publication Critical patent/CN109416584A/zh
Application granted granted Critical
Publication of CN109416584B publication Critical patent/CN109416584B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/28Output arrangements for video game devices responding to control signals received from the game device for affecting ambient conditions, e.g. for vibrating players' seats, activating scent dispensers or affecting temperature or light
    • A63F13/285Generating tactile feedback signals via the game input device, e.g. force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/02Details casings, cabinets or mounting therein for transducers covered by H04R1/02 but not provided for in any of its subgroups
    • H04R2201/023Transducers incorporated in garment, rucksacks or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2400/00Loudspeakers
    • H04R2400/03Transducers capable of generating both sound as well as tactile vibration, e.g. as used in cellular phones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

[问题]提出了能够适应于位置信息地改变触觉刺激的输出的信息处理装置、信息处理方法和程序。[解决方案]提供了具有输出控制单元的信息处理装置,该输出控制单元控制至少两个或更多个触觉刺激单元的触觉刺激的输出,输出控制单元根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与预定位置信息对应的来自触觉刺激单元的输出。

Description

信息处理装置、信息处理方法和程序
技术领域
本公开内容涉及信息处理装置、信息处理方法和程序。
背景技术
在相关技术中,例如,已经提出了用于向用户呈现诸如振动的触觉刺激的各种技术。
例如,专利文献1公开了一种用于在虚拟空间中发生事件的情况下向预定装置输出触觉刺激的技术。
引用列表
专利文献
专利文献1:JP 2015-166890A
发明内容
技术问题
顺便提及,例如,要输出的触觉刺激优选地根据作为触觉刺激目标的位置等而不同。然而,在专利文献1中公开的技术中,不管位置信息如何都输出相同的触觉刺激。
因此,本公开内容提出了能够适应于位置信息地改变触觉刺激的输出的新颖的并且改进的信息处理装置、新颖的并且改进的信息处理方法、以及新颖的并且改进的程序。
问题的解决方案
根据本公开内容,提供了一种信息控制装置,包括:输出控制单元,其被配置成控制至少两个触觉刺激单元的触觉刺激的输出。输出控制单元根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与预定位置信息对应的触觉刺激单元的输出。
另外,根据本公开内容,提供了一种信息处理方法,包括:控制至少两个触觉刺激单元的触觉刺激的输出;以及由处理器根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与预定位置信息对应的触觉刺激单元的输出。
另外,根据本公开内容,提供了一种使计算机用作输出控制单元的程序,该输出控制单元被配置成控制至少两个触觉刺激单元的触觉刺激的输出。输出控制单元根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与预定位置信息对应的触觉刺激单元的输出。
发明的有益效果
根据本公开内容,如上所述,可以适应于位置信息地改变触觉刺激的输出。此外,在此描述的效果不一定限制性的,并且可以包括在本公开内容中描述的任何效果。
附图说明
[图1]图1是示出根据本公开内容的实施方式的信息处理系统的配置示例的说明图。
[图2]图2是示出根据实施方式的夹克20的外部图。
[图3]图3是示出触觉刺激可以通过各个触觉刺激单元200单独呈现的范围的说明图。
[图4]图4是示出两个触觉刺激单元200被设置在用户的身体上的示例的说明图。
[图5]图5是示出在图4中所示的情况中的两个触觉刺激单元200的感知位置与输出强度之间的关系的示例的说明图。
[图6]图6是示出根据本公开内容的比较示例设置在两个触觉刺激单元200中的每一个中的感知位置与输出强度之间的关系的曲线图。
[图7]图7是示出在应用了图6中所示的函数的情况下的感知位置与感知强度之间的关系的曲线图。
[图8]图8是示出根据实施方式的服务器10的配置示例的功能框图。
[图9]图9是示出在用户的身体上设置的目标感知位置的移动路径220的示例的说明图。
[图10]图10是示出目标感知位置的移动路径220的另一示例的说明图。
[图11]图11是示出目标感知位置的范围230被放大的示例的说明图。
[图12]图12是示出使目标感知位置的范围230沿目标移动路径220连续移动的示例的说明图。
[图13]图13是示出根据实施方式的输出强度调整函数被应用在图4中所示的情况中的示例的说明图。
[图14]图14是示出根据实施方式的输出强度调整函数的示例的说明图。
[图15]图15是示出在应用了图15中所示的函数的情况下的感知位置与感知强度之间的关系的曲线图。
[图16]图16是示出多个触觉刺激单元200的输出强度的平面调整示例的说明图。
[图17]图17是示出关于两个目标感知位置配置的三角形交叠的示例的说明图。
[图18]图18是示出当前正在移动的感知位置的范围240被强调地振动的示例的说明图。
[图19]图19是示出根据实施方式的操作示例的整体流程的流程图。
[图20]图20是示出根据实施方式的“输出强度计算处理”的流程的流程图。
[图21]图21是示出在实施方式的应用示例1中显示的图像40的图。
[图22]图22是示出在应用示例1中向用户输出的触觉刺激和声音的示意图。
[图23]图23是示出在实施方式的应用示例2中显示的图像40的图。
[图24]图24是示出应用示例2中输出的触觉刺激的感知位置的移动路径的示意图。
[图25]图25是示出在应用示例2中向用户输出的触觉刺激和声音的示意图。
[图26]图26是示出在实施方式的应用示例3中显示的图像40的图。
[图27]图27是示出在应用示例3中向用户输出的触觉刺激和声音的示意图。
[图28]图28是示出根据实施方式的服务器10的硬件配置示例的说明图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的优选实施方式。注意,在本说明书和附图中,具有基本相同功能和结构的结构要素用相同的附图标记来表示,并且省略对这些结构要素的重复说明。
此外,在本说明书和附图中,具有基本相同功能配置的多个构成要素还通过在相同的附图标记之后附上不同的字母来区分。例如,在必要的情况下,具有基本相同功能配置的多个部件被区分为如服务器10a和服务器10b。在此,在不必要特别区分具有基本相同功能配置的多个构成要素中的每一个的情况下,仅附上相同的附图标记。例如,在不必要特别将服务器10a和服务器10b相互区分的情况下,它们被简称为服务器10。
另外,将按照以下顺序来描述“用于实施本发明的实施方式”的项目。
1.信息处理系统的配置
2.实施方式的详细描述
3.应用示例
4.硬件配置
5.修改示例
<<1.信息处理系统的配置>>
首先,将参照图1描述根据本公开内容的实施方式的信息处理系统的配置。图1是示出根据实施方式的信息处理系统的配置的说明图。如图1所示,信息处理系统包括服务器10、显示装置30、以及通信网络32。此外,在实施方式中,如图1中所示,用户2可以穿戴将在下面描述的夹克20。
<1-1.夹克20>
图2是示出了夹克20的外观的图。如图2所示,夹克20包括夹克20内部的多个触觉刺激单元200和两个声音输出单元202。例如,在夹克20的内部,预定数目的(例如6个)触觉刺激单元200可以布置在用户的前侧和后侧中的每一侧上。例如,各个触觉刺激单元200以如下位置关系布置:其中布置在前侧上的各个触觉刺激单元200与布置在后侧上的各个触觉刺激单元200相互面对。注意,虽然图2示出夹克20是无袖物品的示例,但是本公开内容不限于本示例并且夹克20可以具有袖子。在这种情况下,一个或更多个触觉刺激单元200也可以布置在与用户的两个臂以及用户的腹部和胸部两者对应的位置处。
{1-1-1.触觉刺激单元200}
触觉刺激单元200例如根据从服务器10接收的控制信号来输出例如触觉刺激,例如振动。注意,下面将主要描述触觉刺激单元200生成作为触觉刺激的振动的示例。
顺便提及,例如,在包括在夹克20中的多个触觉刺激单元200各自生成振动的情况下,所生成的振动可以仅在触觉刺激单元200的外围部分210中被感知,如3图所示。即,在各个触觉刺激单元200分开设置的情况下,由各个触觉刺激单元200独立生成的振动可以在用户的身体上被离散地感知。
在另一方面,诸如幻感觉的错觉感觉已经被医学阐明。幻感觉是当刺激同时呈现在皮肤上的不同位置时人类仅感知到所呈现刺激位置之间的一种刺激的错觉现象。例如,如图4所示,当使刺激要被同时输出到布置在用户的身体上的两个触觉刺激单元200时,已知由用户感知的刺激的位置(下文中称为感知位置)是两个触觉刺激单元200之间的位置。
图5是示出在图4中所示的情况中的两个触觉刺激单元200的感知位置与输出强度之间的关系的示例(幻感觉的示例)的说明图。例如,如图5所示,例如假设触觉刺激单元200a的输出强度随时间被连续减弱,例如“1”、“0.6”和“0”,并且触觉刺激单元200b的输出强度随时间被连续加强,例如“0”、“0.6”和“1”。在这种情况下,如图5所示,感知位置50(由用户感知)可以从触觉刺激单元200a的接触位置向触觉刺激单元200b的接触位置连续地移动。通过以这种方式改变多个触觉刺激单元200的输出强度,可以在不改变各个触觉刺激单元200的布置间隔的情况下连续地扩大可以由多个触觉刺激单元200呈现的触觉刺激的范围。
{1-1-2.声音输出单元202}
声音输出单元202根据从例如服务器10接收的控制信号来输出声音。如图2所示,一个声音输出单元202可以被布置在夹克20的右侧和左侧中的每一侧上。例如,声音输出单元202被布置成当用户穿戴夹克20时位于用户的肩部上或肩部附近。然而,本公开内容不限于该示例。在夹克20中,可以布置仅一个声音输出单元202或者可以布置三个或更多个声音输出单元202。另外,作为被包括在夹克20中的替代,声音输出单元202可以以预定间隔被布置为独立的装置,或者可以包括在与夹克20不同的安装装置(例如耳机、头戴式耳机等)或便携式装置(例如便携式音乐播放器、智能电话、便携式游戏装置等)中。
<1-2.显示装置30>
显示装置30是显示图像信息的装置。例如,如将描述的,显示装置30根据从服务器10接收的控制信号来将图像信息投射到投影目标4上。注意,虽然显示装置30被示为图1中的投影仪的示例,但是本发明并不限定于该示例。显示装置30可以是液晶显示器(LCD)装置、有机发光二极管(OLED)装置等。此外,显示装置30可以被包括在例如平板终端或智能电话的便携式装置或者例如HMD或增强现实(AR)眼镜的安装装置中。另外,在这种情况下,声音输出单元202和显示装置30可以被包括在相同的装置中。
<1-3.服务器10>
服务器10是根据本公开内容的信息处理装置的示例,服务器10是控制将触觉刺激输出到多个触觉刺激单元200(或夹克20)的装置。例如,服务器10控制在夹克20中包括的多个触觉刺激单元200中的每一个上的振动的生成。替选地,在夹克20具有控制多个触觉刺激单元200的功能的情况下,服务器10还可以指示夹克20在多个触觉刺激单元200中的每一个中生成振动。
另外,服务器10可以具有控制内容的再现的功能。在此,内容包括图像(图像信息)和声音(声音信息)。例如,服务器10控制显示装置30上的图像的显示。另外,服务器10控制将声音输出到声音输出单元202。因此,例如,位于预定空间内的用户可以在通过显示装置30观看显示的视频和/或听到由声音输出单元202输出的音乐时,同时体验由多个触觉刺激单元200生成的振动。
另外,服务器10例如可以经由将在下面描述的通信网络32来与其他装置(触觉刺激单元200、声音输出单元202、显示装置30等)通信。
<1-4.通信网络32>
通信网络32是从连接至通信网络32的装置发送的信息的有线或无线传输路径。通信网络32的示例可以包括公共线路网络,例如电话网络、因特网和卫星通信网络、包括以太网(注册商标)的各种局域网(LAN)和广域网(WAN)。此外,通信网络32可以包括专用网络,例如因特网协议-虚拟私有网络(IP-VPN)。
<1-5.问题概要>
上面已经描述了根据实施方式的信息处理系统的配置。顺便提及,用户实际上感知触觉刺激单元200的振动的强度(下文中称为感知强度)根据距触觉刺激单元200的距离而降低。例如,对触觉刺激单元200的振动的感知强度与距触觉刺激单元200的距离成反比地降低。
在此,将描述本公开内容的比较示例。图6是示出根据比较示例的在图4中所示的情况中的两个触觉刺激单元200的输出强度的函数f0(x)和函数f1(x)的曲线图。在比较示例中,使触觉刺激单元200a生成具有类似图6中所示的函数f0(x)的输出强度的振动,并且同时使触觉刺激单元200a生成具有类似图6中所示的函数f1(x)的输出强度的振动。由于函数f0(x)和函数f1(x)是非线性地调整触觉刺激单元200的输出强度的函数,所以由于幻感觉,感知位置移动的感觉可以被更强烈地呈现给用户。
然而,在这种情况下,在触觉刺激单元200a的接触位置和触觉刺激单元200b的接触位置的中间附近,如在图7中所示的曲线图中,感知强度与两个接触位置处相比可以显著降低。因此,在比较示例中,难以在期望的感知位置向用户呈现具有期望感知强度的触觉刺激。
因此,根据实施方式的服务器10是考虑到上述情况而发明的。根据用户身上的预定位置信息和关于与预定位置信息有关的触觉输出的信息,根据实施方式的服务器10改变与预定位置信息对应的一个或更多个触觉刺激单元200的输出。在此,关于触觉输出的信息包括,例如触觉刺激或(目标)触觉输出值的目标感知强度。
例如,服务器10可以根据作为触觉刺激目标的位置和在该位置处的目标感知强度来改变一个或更多个触觉刺激单元200的输出强度。因此,例如,可以使用户感知触觉刺激(振动等),使得感知强度在多个触觉刺激单元200的接触位置之间是基本恒定的。
<<2.实施方式的详细描述>>
<2-1.配置>
接下来,将详细描述根据实施方式的服务器10的配置。图8是示出根据实施方式的服务器10的配置示例的功能框图。如图8所示,服务器10包括控制单元100、通信单元120和存储单元122。
{2-1-1.控制单元100}
控制单元100通常使用诸如包括在服务器10中的将在下面描述的中央处理单元(CPU)150或随机存取存储器(RAM)154的硬件来控制服务器10的操作。另外,如图8中所示,控制单元100包括内容再现单元102、目标位置和强度决定单元104以及输出控制单元106。
{2-1-2.内容再现单元102}
内容再现单元102控制内容的再现。例如,在再现目标内容包括图像的情况下,内容再现单元102执行显示装置30上图像的显示的控制。另外,在再现目标内容包括声音的情况下,内容再现单元102执行声音输出单元202上声音的输出的控制。
另外,内容再现单元102可以使显示装置30和/或声音输出单元202对再现目标内容进行再现,再现目标内容与将在下面描述的输出控制单元106对触觉刺激的输出控制相关联。例如,内容再现单元102与一个或更多个触觉刺激单元200生成振动的定时同步地再现内容。
注意,可以基于预先决定的设置信息(再现列表等)来决定一种再现目标内容或者可以响应于由用户输入的再现请求来决定一种再现目标内容。
{2-1-3.目标位置和强度决定单元104}
(2-1-3-1.决定目标感知位置)
目标位置和强度决定单元104决定预定定时处触觉刺激的目标感知位置和感知位置处的目标感知强度。在此,目标感知位置基本上可以设置在用户的身体上。例如,目标位置和强度决定单元104根据再现目标内容决定预定定时处触觉刺激的目标感知位置和感知位置处的目标感知强度。作为一个示例,目标位置和强度决定单元104根据在再现目标内容的再现时段期间的每个定时处显示的图像和/或输出的声音来决定每个定时处的目标感知位置和目标感知强度。
–移动路径
例如,在目标移动路径预先与再现目标内容相关联的情况下,目标位置和强度决定单元104基于目标移动路径决定在内容的再现时段期间的每个定时处的目标感知位置。可替选地,目标位置和强度决定单元104可以根据当前(目标)感知位置和当前正被再现的内容来实时决定未来预定定时处的目标感知位置。
在此,目标移动路径可以设置在用户身体的表面上。图9是示出设置在用户的身体上的目标移动路径220的示例的说明图。图9示出了目标移动路径220是连接触觉刺激单元200a的接触位置、触觉刺激单元200c的接触位置、触觉刺激单元200d的接触位置和触觉刺激单元200h的接触位置的路径。在这种情况下,触觉刺激可以被呈现给用户,使得感知位置从作为起始点的触觉刺激单元200a的接触位置向作为结束点的触觉刺激单元200h的接触位置连续地移动。
可替选地,目标移动路径可以被设置为连接用户身体的第一表面、用户身体的内部和与第一表面相对的第二表面的路径。在此,第一表面可以是用户的前表面并且第二表面可以是用户的后表面。可替选地,例如,第一表面是诸如手臂的身体的预定部分的前侧表面,并且第二表面是身体的该部分的后侧表面。图10是示出目标运动路径220的另一示例的说明图。图10示出了目标移动路径220是连接用户的前表面上的触觉刺激单元200a的接触位置、用户的身体内部和用户的后表面上的触觉刺激单元200b的接触位置的路径的示例。在这种情况下,可以向用户呈现从前表面向后表面穿透身体内部的感觉。
-运动区域
另外,在目标移动区域预先与再现目标内容相关联的情况下,目标位置和强度决定单元104可以基于目标移动区域决定在内容的再现时段期间的每个定时处的一组目标感知位置(区域)。可替选地,目标位置和强度决定单元104可以根据一组当前(目标)感知位置和正被再现的内容来实时地决定在未来预定定时处的一组目标感知位置。
在此,目标移动区域可以被设置为在用户的身体上随着时间在面积上扩展的区域。图11是示出目标感知位置的目标移动区域230被设置在用户的身体上的示例的说明图。图11示出了目标移动区域230是如下区域的示例:一组目标感知位置使用触觉刺激单元200a的接触位置作为起始点来随时间在面积上扩展的区域。例如,目标移动区域230是触觉刺激单元200a的接触位置与该组目标感知位置之间的距离随时间逐渐增大的区域。在这种情况下,可以向用户呈现触觉刺激,使得感知位置使用作为起始点的触觉刺激单元200a的接触位置作为参考来在面积上连续扩展。注意,触觉刺激单元200a的接触位置(即目标移动区域的起始点)是本公开内容中的第三位置的示例。
(2-1-3-2.决定目标感知强度)
另外,目标位置和强度决定单元104可以根据内容决定在再现目标内容的再现时段期间的每个定时处的目标感知强度。
-决定示例1
例如,目标移动路径(或目标移动区域)可以预先与目标移动路径(或目标移动区域)上的每个位置处的目标感知强度相关联。在这种情况下,目标位置和强度决定单元104首先根据例如再现目标内容来决定目标移动路径,并且基于目标移动路径决定在内容的再现时段期间的每个定时处的目标感知强度。注意,目标移动路径(或目标移动区域)上的每个位置处的目标感知强度可以针对每个位置决定成全部相同或者可以针对每个位置决定成不同。另外,目标移动路径(或目标移动区域)上的每个位置处的目标感知强度可以由用户手动设置。
可替选地,目标位置和强度决定单元104可以根据当前(目标)感知强度和正被再现的内容来实时地在未来预定定时处决定目标感知强度。
-决策示例2
可替选地,目标感知强度的波形可以预先登记。在这种情况下,目标位置和强度决定单元104可以例如基于目标感知强度的波形和所决定的目标感知位置来实时地决定目标感知位置处的目标感知强度。注意,目标感知强度的波形可以是恒定函数,或者可以与再现目标内容相关联地登记。
{2-1-4.输出控制单元106}
(2-1-4-1.目标位置的连续移动)
输出控制单元106根据由目标位置和强度决定单元104决定的目标感知位置和目标感知强度来控制与目标感知位置对应的多个触觉刺激单元200中的振动的生成。例如,输出控制单元106首先指定位于当前目标感知位置附近的多个触觉刺激单元200(例如三个触觉刺激单元)。然后,输出控制单元106基于多个触觉刺激单元200中的每一个与目标感知位置之间的位置关系和当前目标感知强度来决定多个触觉刺激单元200中的每一个的输出强度。因此,例如,用户可以感知当前目标感知位置处的当前目标感知强度的振动。
另外,当由目标位置和强度决定单元104决定的目标感知位置和目标感知强度都随时间变化时,输出控制单元106顺序地调整与改变的目标感知位置对应的多个触觉刺激单元200中的每一个的输出强度。
-具体示例
例如,如图9所示,假设目标移动路径220被设置在用户的身体的表面上并且沿目标移动路径220的目标感知强度被不断地决定。在这种情况下,输出控制单元106调整多个对应的触觉刺激单元200的输出强度,使得同一感知强度的振动随时间在目标移动路径220上的每一个位置处连续地移动。
可替选地,如图10所示,假设目标移动路径220被设置为连接用户的身体的前表面和后表面的移动路径。在这种情况下,输出控制单元106调整多个对应的触觉刺激单元200的输出强度,使得感知位置随时间沿着目标移动路径220穿过身体内部。
可替选地,如图11中所示,假设目标移动区域230被设置为在面积上扩展的区域。在这种情况下,输出控制单元106调整多个对应的触觉刺激单元200的输出强度,使得起始点(例如触觉刺激单元200a的接触位置)与感知位置的组(范围)之间的距离随时间连续增加。
可替选地,如图12所示,输出控制单元106调整多个对应的触觉刺激单元200的输出强度,使得目标感知位置的范围230沿着目标移动路径220连续移动。
(2-1-4-2.使用显示距离控制输出强度)
另外,输出控制单元106可以基于目标感知位置与位于目标感知位置附近的触觉刺激单元200之间的距离来改变触觉刺激单元200(基于目标感知强度决定)的输出强度。例如,在触觉刺激单元200a和触觉刺激单元200b位于目标感知位置附近的情况下,输出控制单元106基于用户身体上的触觉刺激单元200a的接触位置与目标感知位置之间的距离来改变触觉刺激单元200a的输出强度。另外,输出控制单元106基于用户身体上的触觉刺激单元200b的接触位置与目标感知位置之间的距离来改变触觉刺激单元200b的输出强度。在此,触觉刺激单元200a是根据本公开内容的第一触觉刺激单元的示例并且触觉刺激单元200b是根据本公开内容的第二触觉刺激单元的示例。
-两点之间的输出强度的校正示例
在下文中,将更详细地描述上述功能。首先,将描述在目标感知位置位于两个触觉刺激单元200之间的情况下两个触觉刺激单元200的输出强度的调整示例。例如,输出控制单元106基于触觉刺激单元200a的接触位置和触觉刺激单元200b的接触位置的中间位置与目标感知位置之间的位置关系来改变触觉刺激单元200a的输出强度和触觉刺激单元200b的输出强度中的每一个。在此,该中间位置是根据本公开内容的第四位置的示例。
例如,输出控制单元106可以改变触觉刺激单元200a和触觉刺激单元200b的输出强度,使得触觉刺激单元200a的输出强度与触觉刺激单元200b的输出强度之和的值随着中间位置与目标感知位置之间的距离变小而变大。可替选地,在目标感知位置定位成相比于靠近触觉刺激单元200b的接触位置,目标感知位置更靠近触觉刺激单元200a的接触位置的情况下,输出控制单元106可以改变触觉刺激单元200a的输出强度,使得触觉刺激单元200a的输出强度随着触觉刺激单元200a的接触位置与目标感知位置之间的距离变大而变大。另外,这同样适用于触觉刺激单元200b(即反向关系成立)。
同时,输出控制单元106基于中间位置与目标感知位置之间的位置关系来改变触觉刺激单元200a的输出强度与触觉刺激单元200b的输出强度的比率。
图13是示出应用了输出强度的上述调整的场景的示例并且该示例与图5中所示的示例对应的说明图。注意,图13的(a)和(c)示出了目标感知位置50与触觉刺激单元200a的接触位置或触觉刺激单元200b的接触位置匹配的情况。另外,图13的(b)示出了目标感知位置50位于两个触觉刺激单元200的中间位置处的定时。例如,在图13的(a)中所示的定时处,输出控制单元106将触觉刺激单元200a的输出强度设置成“1”并且将触觉刺激单元200b的输出强度设置成“0”。另外,在图13的(b)中所示的定时处,输出控制单元106将触觉刺激单元200a的输出强度设置成“1.5”并且将触觉刺激单元200b的输出强度设置成“1.5”。另外,在图13的(c)中所示的定时处,输出控制单元106将触觉刺激单元200a的输出强度设置成“0”并且将触觉刺激单元200b的输出强度设置成“1”。即,输出控制单元106调整触觉刺激单元200a和触觉刺激单元200b的输出强度,使得两个触觉刺激单元200的输出强度之和在两个触觉刺激单元200的中间位置与目标感知位置50的距离较小(图13的(b))的情况下比在中间位置与目标感知位置50的距离较大(图13的(a)和(c))的情况下更大。
例如,输出控制单元106通过将图6中所示的函数f0(x)乘以如下面的表达式(1)中的调整函数h0(x)来获得图14中所示的函数g0(x)。在此,函数g0(x)是指示在目标感知位置为x的情况下触觉刺激单元200a的输出强度的函数。另外,调整函数h0(x)是与触觉刺激单元200a和目标感知位置之间的距离成比例地增加触觉刺激单元200a的输出强度的函数。
[公式1]
g0(x)=h0(x)×f0(x) 表达式(1)
类似地,输出控制单元106通过将图6中所示的函数f1(x)乘以如下面的表达式(2)中的调整函数h1(x)来获得图14中所示的函数g1(x)。在此,函数g1(x)是指示在目标感知位置为x的情况下触觉刺激单元200b的输出强度的函数。另外,调整函数h1(x)是与触觉刺激单元200b和目标感知位置之间的距离成比例地增加触觉刺激单元200b的输出强度的函数。注意,函数f0(x)和函数f1(x)不限于图6中所示的平方根函数,并且可以是对数关系或线性关系的函数(线性函数等)。
[公式2]
g1(x)=h1(x)×f1(x) 表达式(2)
另外,图15是示出在使用函数g0(x)和函数g1(x)的场景中的目标感知位置(=x)与感知强度之间的关系的示例的曲线图。具体地,图15示出了以下情况下的曲线图:目标感知强度在两个触觉刺激单元200之间的整个区域中被设置为“1”,使用图14中所示的函数g0(x)在触觉刺激单元200a中生成振动,并且使用图14中所示的函数g1(x)在触觉刺激单元200b中生成振动。如图15所示,通过应用函数g0(x)和函数g1(x),感知强度在触觉刺激单元200a和触觉刺激单元200b之间的整个区域中是基本恒定的。例如,即使在目标感知位置位于中间位置附近的情况下,感知强度也基本上不降低。
-平面输出强度的校正示例
接下来,将描述多个触觉刺激单元200的输出强度的平面调整示例。更具体地,将描述在目标感知位置位于在三个触觉刺激单元200的接触位置处决定的三角形内部的情况下的三个触觉刺激单元200的输出强度的调整示例。
例如,对于三个触觉刺激单元200中的每一个,输出控制单元106基于触觉刺激单元200的接触位置与目标感知位置之间的距离来改变触觉刺激单元200的输出强度。
在此,将参照图16更详细地描述上述功能。注意,图16示出了点A是目标感知位置的示例。例如,输出控制单元106基于位于点A附近的三个触觉刺激单元200的接触位置(A0、A1和A2)之间的位置关系来(暂时地)计算三个触觉刺激单元200中的每一个的输出强度。然后,对于三个触觉刺激单元200中的每一个,输出控制单元106基于触觉刺激单元200的接触位置与目标感知位置(图16中所示的示例中的L0、L1或L2)之间的距离来改变(校正)所计算的输出强度。根据控制示例,例如,在三角形的整个范围中的目标感知强度被设置为相同值的情况下,三角形内部的全部位置处的感知强度(由用户实际感知的)可以是基本上恒定的。例如,即使在目标感知位置位于三角形的重心附近的情况下,感知强度也基本上不降低。
-三角形的交叠
注意,在设置了多个目标感知位置的情况下,可以允许在各个目标感知位置处配置的三角形相互交叠的决定。例如,如图17所示,在位于第一目标感知位置(点A)附近的三个触觉刺激单元200的接触位置(A0、A1和A2)处决定的三角形和在位于第二目标感知位置(点B)附近的三个触觉刺激单元200的接触位置(A0、A2和A3)处决定的三角形可以相互交叠。
-修改示例
在此,将描述调整上述多个触觉刺激单元200的输出强度的方法的修改示例。例如,在感知位置(或灵敏度特征)不确定的情况下(例如指定感知位置未启用),输出控制单元106可以将要应用于各个触觉刺激单元200的上述调整函数的全部参数设置成预定值(相同值)。
另外,在某些情况下,触觉刺激单元200在用户身体上的接触位置是不确定的。例如,在包括触觉刺激单元200的装置是带型装置的情况下,用户在某些情况下将装置穿戴在他或她的手腕上或者在某些情况下穿戴在他或她的脚踝上。因此,在触觉刺激单元200的接触位置不确定的情况下,输出控制单元106可以在各个触觉刺激单元200位于相等间隔的假设下来决定各个触觉刺激单元200的输出强度的调整函数的参数的值。
另外,在某些情况下,触觉刺激单元200在用户身体上的接触压力是不确定的。例如,在其中用户穿戴了夹克20的情况下,可以在夹克20和身体之间出现间隙,但是在某些情况下该间隙可能无法被检测到。因此,在触觉刺激单元200的接触压力不确定的情况下,输出控制单元106可以将触觉刺激单元200的输出强度的调整函数的参数设置成预定值。
另外,在与用户的身体接触的多个触觉刺激单元200中的一个出故障的情况下,输出控制单元106还可以(从出故障之前的值起)改变位于对应的触觉刺激单元200附近的触觉刺激单元200的输出强度的调整函数的参数的值。因此,即使当一个触觉刺激单元200出故障时,也可以防止向用户呈现触觉刺激的区域的丢失。
此外,在测量或估计出至少一个触觉刺激单元200的接触压力小于预定阈值的情况下,输出控制单元106可以中断全部的触觉刺激单元200的振动的生成。可替选地,在这种情况下,输出控制单元106可以中断对应的触觉刺激单元200的触觉刺激的输出,并且可以(从中断之前的值起)改变位于对应的触觉刺激单元200附近的触觉刺激单元200的输出强度的调整函数的参数的值。
(2-1-4-3.控制移动速度)
另外,输出控制单元106还可以决定目标位置的移动速度。例如,输出控制单元106可以将目标位置的移动速度设置为预定值,或者可以动态地改变目标位置的移动速度。
在后一种情况下,例如,输出控制单元106可以根据(内容再现单元102的)再现目标内容来动态地改变目标位置的移动速度。可替选地,输出控制单元106可以基于例如用户的身体的旋转速度或用户在预定装置上的操作速度的测量结果来改变目标位置的移动速度。注意,可以基于用户携带或穿戴的各种传感器例如加速度传感器和陀螺仪来指定用户的身体的旋转速度。在此,各种传感器可以被包括在夹克20中,可以被包括在触觉刺激单元200中,或者可以被包括在由用户携带或穿戴的另一装置中。另外,也可以通过组合包括在其他装置中的其他传感器(例如触觉刺激单元200包括加速度传感器并且夹克20包括陀螺仪等)的测量结果来指定用户的身体的旋转速度。
(2-1-4-4.输出强度的动态改变)
另外,输出控制单元106还可以基于预定标准来动态地改变多个触觉刺激单元200的输出强度。例如,输出控制单元106可以基于当前正被移动的感知位置(或感知位置的范围)来动态地改变多个刺激单元200的输出强度。作为一个示例,如图18中所示,输出控制单元106在当前正被移动的感知位置的范围240中相对地增加目标感知强度,同时目标感知位置的范围230沿着目标移动路径220连续地移动。因此,还可以强调当前正被移动的感知位置并且向用户呈现感知位置。
另外,输出控制单元106可以基于对感知位置的移动方向的预测来动态地改变触觉刺激单元200的输出强度。例如,输出控制单元106可以相对地减小感知位置的移动源或移动目的地的输出强度,因此,可以强调并且向用户呈现感知位置的移动的对比。
可替选地,输出控制单元106可以基于预定区域和用户的身体上的感知位置之间的位置关系来动态地改变多个触觉刺激单元200的输出强度。例如,输出控制单元106可以控制多个触觉刺激单元200中的振动的生成,使得感知位置避开用户的身体的预定区域而移动。注意,该预定区域可以是例如心脏等附近的预定部分、发生伤害的区域等。
此外,人通常具有取决于各部位的对触觉刺激的不同感知强度。因此,输出控制单元106还可以根据包括目标感知位置的各部位来进一步动态地改变多个触觉刺激单元200的输出强度。例如,在目标感知位置被包括在具有高灵敏度的部位的情况下,输出控制单元106相对地减小多个触觉刺激单元200的输出强度。另外,在目标感知位置被包括在具有低灵敏度的部位的情况下,输出控制单元106相对地增大多个触觉刺激单元200的输出强度。可替选地,输出控制单元106可以根据包括目标感知位置的部位来改变在多个触觉刺激单元200中生成的振动的频率(而不是输出强度)。因此,在不取决于包括感知位置的部位的情况下,感知位置处的期望感知强度可以被呈现给用户。
可替选地,输出控制单元106还可以根据目标感知位置的移动速度来进一步动态地改变多个触觉刺激单元200的输出强度。例如,输出控制单元106动态地改变多个触觉刺激单元200的输出强度的峰值(最大值)或输出强度的改变量。作为一个示例,输出控制单元106还随着目标感知位置的移动速度变快而减小输出强度的最大值或输出强度的改变量。
此外,关于振动的生成的特征可以根据各个触觉刺激单元200而不同。因此,例如,在各个触觉刺激单元200的特征预先已知的情况下,输出控制单元106还可以根据各个触觉刺激单元200的特征来动态地改变各个触觉刺激单元200的输出强度。例如,输出控制单元106根据各个触觉刺激单元200的特征来改变各个触觉刺激单元200的输出强度之间的比率。
此外,触觉刺激的感知强度通常可以根据触觉刺激单元200在用户的身体上的接触压力而不同。因此,输出控制单元106还可以基于各个触觉刺激单元200的接触压力的测量结果或估计结果来动态地改变各个触觉刺激单元200的输出强度(输出强度的调整函数的参数的值)。注意,触觉刺激单元200的接触压力可以根据以下方法来测量或估计。例如,在触觉刺激单元200包括压力传感器的情况下,触觉刺激单元200的接触压力可以由压力传感器来测量。可替选地,可以基于对触觉刺激单元200中的电流值的改变的分析来估计触觉刺激的单元200的接触压力。例如,可以由例如开发者预先获得人体(或另一对象)上的接触压力与触觉刺激单元200的电流值之间的关系。在这种情况下,可以基于触觉刺激单元200的电流值的测量结果和该关系来估计触觉刺激单元200的接触压力。
可替代地,在用户的身体穿戴触觉刺激单元200的情况下(例如在用户穿戴夹克20等的情况下),可以基于触觉刺激单元200的姿态和/或用户姿态的测量结果来估计触觉刺激装置200的接触压力。注意,可以基于例如触觉刺激单元200中包括的陀螺仪和加速度传感器来测量触觉刺激单元200的姿态。另外,可以基于用户携带或穿戴的另一装置中包括的陀螺仪和加速度传感器来测量用户的姿态。
{2-1-5.通信单元120}
通信单元120向另一装置发送信息以及从另一装置接收信息。例如,通信单元120在输出控制单元106的控制下向多个触觉刺激单元200(或夹克20)中的每一个发送触觉刺激的输出的控制信号。另外,通信单元120在内容再现单元102的控制下向显示装置30发送再现目标图像的显示的控制信号并且向多个声音输出单元202(或夹克20)中的每一个发送再现目标声音的输出的控制信号。
{2-1-6.存储单元122}
存储单元122存储各种数据或各种软件。
<2-2.操作>
以上已经描述了根据实施方式的配置。接下来,将参照图19描述根据实施方式的操作的示例。图19是示出根据实施方式的操作示例的流程图。
{2-2-1.整体操作流程}
如图19所示,服务器10的目标位置和强度决定单元104首先根据例如当前正被再现的内容等来决定触觉刺激的目标感知位置以及在当前时间的单位时间(ΔT秒)之后在感知位置处的目标感知强度(S101)。
随后,输出控制单元106指定位于目标感知位置附近的三个触觉刺激单元200(S103)。
随后,输出控制单元106执行将在下面描述的“计算输出强度的处理”(S105)。
此后,输出控制单元106等待直到从S101的时间点起经过ΔT秒为止。然后,当已经经过ΔT秒时(S107中为是),输出控制单元106使具有在S105中计算的输出强度的触觉刺激被输出到三个触觉刺激单元200中的每一个(S109)。
此后,服务器10确定是否满足预定结束条件(S111)。在服务器10确定不满足预定结束条件的情况下(S111中为否),服务器10再次执行S101后续的处理。相反地,在服务器10确定满足预定结束条件的情况下(S111中为是),服务器10结束操作。注意,预定结束条件可以是:从操作的开始起已经经过预定时间的条件、再现目标内容结束的条件、或用户输入结束指令的条件。
{2-2-2.计算输出强度的处理}
在此,将参照图20描述S105中的“计算输出强度的处理”的流程。如图20中所示,输出控制单元106首先在指示在S103中指定的三个触觉刺激单元200中的处理目标触觉刺激单元200的数目的变量I中设置“1”(S151)。
然后,输出控制单元106重复下面的S155至S159的处理,只要I的值等于或小于“3”(S153)。
具体地,输出控制单元106首先基于S101中决定的目标感知位置与三个触觉刺激单元200中的每一个的接触位置之间的位置关系和S101中决定的目标感知强度来(暂时地)计算第I个触觉刺激单元200的输出强度(S155)。
随后,输出控制单元106基于目标感知位置与第I个触觉刺激单元200的接触位置之间的距离来改变(校正)在S155中计算出的输出强度(S157)。然后,输出控制单元106将I加“1”(S159)。
<2-3.有益效果>
如上所述,根据本实施方式的服务器10根据用户的身体上的预定位置信息和与位置信息有关的触觉刺激的目标感知强度来改变与预定位置信息对应的一个或更多个触觉刺激单元200的输出强度。因此,可以使用户感知到具有适于用户的身体上的位置信息的强度的触觉刺激。例如,可以使用户感知到触觉刺激(振动等),使得感知位置在多个触觉刺激单元200的接触位置之间连续地移动并且感知强度在移动期间基本恒定。
<<3.应用示例>>
<3-1.应用示例1>
接下来,将描述上述实施方式的应用示例。首先,将参照图21和图22来描述实施方式的应用示例1。图21是示出由应用示例1中的显示装置30显示的图像40的图。图像40是使用用户的视点作为标准生成的图像(例如,三维计算机图形(CG)图像等)。注意,在图21中所示的示例中,图像40包括球型对象400。对象400是根据本公开内容的目标区域的示例。
如图21中所示,假设图像从图像40a向图像40b连续地转换,使得对象400a移动到图像40中的左前侧,即动画被显示为对象400a击中用户的身体的左侧。在这种情况下,如图22中所示,输出控制单元106首先指定与图21的(b)中所示的图像40b中的对象400a的位置对应的用户的身体上的位置(碰撞位置)。注意,在图22中所示的示例中,碰撞位置在触觉刺激单元200e的接触位置附近。
然后,输出控制单元106控制触觉刺激输出到位于附近的多个触觉刺激单元200,使得例如目标感知位置的组230随时间从作为起始点的特定位置起在面积上扩展。因此,可以向用户呈现从用作起始点的碰撞位置起向周围传播撞击的感觉。
同时,随着撞击声音正来自用户的身体上的碰撞位置,内容再现单元102使两个声音输出单元202输出撞击声音,如由图22中的两个虚线曲线所指示的。例如,由于碰撞位置位于用户的身体的左侧上,如图22中所示,因此内容再现单元102使用户身体的左侧上的声音输出单元202b输出具有较大音量的撞击声音并且使用户身体的右侧上的声音输出单元202a输出具有较小音量的撞击声音。
根据应用示例1,可以显示球击中用户身体的视频,并且可以同时向用户呈现对于视频最佳的触觉刺激和声学声音。通过向用户呈现多模式表达,可以实现更高的真实感。
<3-2.应用示例2>
将参照图23至图25来描述实施方式的应用示例2。图23是示出通过显示装置30显示的图像40的另一示例的图。在图23中所示的示例中,图像40包括矛类型对象410。注意,对象410是根据本公开内容的目标区域的示例。
如图23所示,假设图像从图像40a向图像40b连续地转换,使得对象410移动到图像40中的左前侧,即动画被显示为矛的前尖端击中用户身体的左侧。在这种情况下,如图24中所示,目标位置和强度决定单元104首先基于图像40中的对象410的移动轨迹来决定目标感知位置的移动路径220。
例如,目标位置和强度决定单元104首先指定与图23中所示的图像40b中的对象410的前尖端的位置对应的用户的身体上的位置(碰撞位置)。注意,在图25中所示的示例中,碰撞位置在触觉刺激单元200e的接触位置附近。然后,目标位置和强度决定单元104基于所指定的位置和图像40中的对象410的移动轨迹来决定目标感知位置的移动路径220。注意,在图24中所示的示例中,目标感知位置的移动路径220是将位于用户的左侧的前表面上的触觉刺激单元200e附近的位置与位于用户的左侧的后表面上的触觉刺激单元200i附近的位置连接的路径。此外,目标位置和强度决定单元104决定目标感知位置的范围230。
随后,输出控制单元106控制触觉刺激输出到多个触觉刺激单元200例如触觉刺激单元200e和触觉刺激单元200i,使得用户可以感知目标感知位置的范围230沿着目标感知位置的移动路径220的连续移动。因此,可以向用户呈现矛从用作起始点的碰撞位置起从用户的左前方向左后方刺穿的感觉。
同时,随着撞击声音正来自用户的身体上的碰撞位置,如由图25中的两个虚线曲线所指示的。例如,由于碰撞位置位于用户的身体的左侧上,如图25中所示,因此内容再现单元102使用户身体的左侧上的声音输出单元202b输出具有较大音量的撞击声音并且使用户身体的右侧上的声音输出单元202a输出具有较小音量的撞击声音。
根据应用示例2,可以显示矛刺穿用户身体的视频,并且可以同时向用户呈现对于视频最佳的触觉刺激和声学声音。通过向用户呈现多模式表达,可以实现更高的真实感。
<3-3.应用示例3>
接下来,将参照图26和图27来描述实施方式的应用示例3。图26是示出通过显示装置30显示的图像40的又一示例的图。在图26中所示的示例中,图像40包括怪物对象420。注意,对象420是根据本公开内容的目标区域的示例。
如图26所示,假设图像从图像40a向图像40b连续地转换,使得动画被显示为从图像40的右侧向左侧移动的对象420攻击用户。在这种情况下,如图27中所示,输出控制单元106首先指定与图26中所示的图像40a中的对象420(例如对象420的手的位置等)的位置对应的用户的身体上的位置(碰撞位置)。在图27中所示的示例中,碰撞位置在触觉刺激单元200a的接触位置附近。
在此,目标位置和强度决定单元104基于所指定的位置和图像40中的对象420的移动轨迹(攻击轨迹)来决定目标感知位置的移动路径220。注意,在图27中所示的示例中,目标感知位置的移动路径220是将位于用户的右侧上的触觉刺激单元200a的接触位置的周围与位于用户的左侧上的触觉刺激单元200b的接触位置的周围连接的路径。此外,目标位置和强度决定单元104决定目标感知位置的范围230。
随后,输出控制单元106控制触觉刺激输出到多个触觉刺激单元200例如触觉刺激单元200a和触觉刺激单元200e,使得用户可以感知目标感知位置的范围230沿着目标的移动路径220的连续移动。因此,可以向用户呈现对象420从用作起始点的碰撞位置起从用户的右侧向左侧攻击的感觉。
同时,内容再现单元102使两个声音输出单元202输出撞击声音,使得撞击声音随时间沿着撞击声音的移动轨迹250移动并且被听到,如图27中的虚线曲线所指示的。在此,碰撞声音可以结合感知位置沿着移动路径220的移动一起输出。例如,内容再现单元102使得使要由用户身体的右侧上的声音输出单元202a输出的撞击声音的音量与使要由用户身体的左侧上的声音输出单元202b输出的撞击声音的音量的比率随着目标感知位置的移动被改变。
根据应用示例3,可以显示对象420从右侧向左侧攻击用户的视频,并且可以同时向用户呈现对于视频最佳的触觉刺激和声学声音。通过向用户呈现多模式表达,可以实现更高的真实感。
<<4.硬件配置>>
接下来,将参照图28接着描述根据本实施方式的服务器10的硬件配置。如图28中所示,服务器10包括CPU 150、只读存储器(ROM)152、RAM 154、总线156、接口158、存储装置160和通信装置162。
此外,用作算术处理单元和控制装置的CPU 150根据各种程序来控制服务器10内的整个操作。此外,CPU 150在服务器10处实现控制单元100的功能。注意,CPU 150包括诸如微处理器的处理器。
ROM 152存储要由CPU 150使用的程序、诸如操作参数的控制数据等。
RAM 154临时存储例如要由CPU 150执行的程序。
总线156包括CPU总线等,总线156将CPU 150、ROM 152和RAM 154互连。
接口158将存储装置160和通信装置162连接到内部总线156。
存储装置160是用于数据存储的装置,其用作存储单元122。存储装置160包括例如:存储介质、将数据记录在存储介质中的记录装置、从存储介质中读出数据的读出装置、删除存储介质中记录的数据的删除装置等。
通信装置162是包括用于连接至例如通信网络32等的通信装置等的通信接口。此外,通信装置162可以是支持无线LAN的通信装置、支持长期演进(LTE)的通信装置或以有线方式执行通信的有线通信装置。通信装置162用作通信单元120。
<<5.修改示例>>
以上已经参照附图描述了本公开内容的优选实施方式,然而本公开内容不限于以上示例。本领域技术人员可以在所附权利要求的范围内找到各种改变和修改,并且应当理解,这些改变和修改将自然地落入本公开内容的技术范围内。
<5-1.修改示例1>
例如,在某些情况下,目标感知位置可以位于全部触觉刺激单元200的触觉刺激的呈现范围之外。另外,在触觉刺激单元200的布置位置之间的距离相当大的情况下,在某些情况下难以允许用户在多个触觉刺激单元200之间的范围内感知具有目标感知强度的触觉刺激。
因此,例如,在目标感知位置移动到全部触觉刺激单元200的触觉刺激的呈现范围之外的情况下,服务器10可以使正被再现的内容被改变成使得给予用户将感知位置移动到呈现范围之外的感觉(错觉)。
作为一个示例,当目标感知位置在用户身体的水平方向上移动并且移动到呈现范围之外的情况下,服务器10使正在与(例如,如在“3.应用示例”中描述的)目标感知位置的移动方向的相同方向上显示的图像(或者图像内部的特定区域)移动,或者使被使得输出到用户身体的右部或左部的音量之间的比率改变。同时,服务器10将一个或更多个对应的触觉刺激单元200的输出强度设置成与目标感知位置位于范围的边界中的情况下的输出强度相同,或者根据目标感知位置与边界之间的距离来减小输出强度。
根据该修改示例,通过使用图像或声音,可以实现触觉刺激的呈现范围之外的感知位置的(伪)插值。
<5-2.修改示例2>
另外,作为另一修改示例,服务器10(输出控制单元106)可以控制多个触觉刺激单元200,使得触觉刺激沿着用户身体上的多个触觉刺激单元200的上部方向和下部方向(竖直方向)上的布置从上侧向下侧或从下侧向上侧顺序地输出。因此,可以向用户呈现重力感觉、向上移动的感觉或向下移动的感觉。例如,用户可以期望获得乘坐移动电梯的感觉。
<5-3.修改示例3>
另外,作为又一修改示例中,服务器10可以控制触觉刺激输出到多个触觉刺激单元200,使得拉动身体的感觉(例如皮肤等)被呈现给用户。
<5-4.修改示例4>
另外,作为又一修改示例中,服务器10可以根据用户在包括一个或更多个触觉刺激单元200的预定箱上的操作(摇动、旋转等)来控制夹克20中包括的一个或更多个触觉刺激单元200和/或多个触觉刺激单元200中的触觉刺激的输出。因此,还可以实现在使用另一种敏感的器官例如身体感觉来实现对空间或空中触觉刺激的解决方案的改进。
<5-5.修改示例5>
另外,作为又一修改示例,已经在上面描述了通过使用幻感觉来呈现感知位置的移动的示例,但是本公开内容不限于该示例,例如,服务器10还可以控制多个触觉刺激单元200上的触觉刺激的输出,使得定向多个触觉刺激单元200之间的感知位置的错觉被呈现给用户。
作为一个示例,输出控制单元106可以依次改变两个触觉刺激单元200的输出强度,使得感知位置在短时间内在两个触觉刺激单元200之间往复运动(特别地,感知位置在中间位置附近往复运动)。可替选地,输出控制单元106可以首先改变两个触觉刺激单元200的输出强度,使得感知位置从两个触觉刺激单元200中的一个触觉刺激单元200的接触位置向中间位置移动,并且然后在感知位置到达中间位置之后可以将两个触觉刺激单元200的输出强度保持(固定)为相同值。可替选地,当感知位置到达中间位置时,输出控制单元106可以将两个触觉刺激单元200中的一个的输出强度设置为“0”或预定的较小值,或者可以逐渐地减小触觉刺激单元200的输出强度。在这样的控制示例中,用户可以期望获得定向两个触觉刺激单元200的中间的感知位置的感觉。
<5-6.修改示例6>
另外,作为又一修改示例中,触觉刺激单元200的输出强度的波形的振幅(基于目标感知强度的波形决定的)可以被调整为使得输出强度(振幅)的最大值等于或小于预定值。例如,即使当输出强度的波形与(如上所述的)输出强度的调整函数相乘,输出强度的波形的振幅也可以被调整以使得振幅的最大值等于或小于预定值。注意,输出强度的波形的振幅可以被预先调整或者可以实时调整。可替选地,(如上所述的)输出强度的调整函数的参数的值可以被调整以使得振幅的最大值等于或小于预定值。
<5-7.修改示例7>
另外,触觉刺激的感知强度通常可以根据振动的频率而不同。例如,人类可以在振动的频率是大约200Hz的情况下感觉到的振动最强烈,并且可以在频率高于200Hz时感觉到的振动较弱。因此,输出控制单元106可以基于目标感知位置和目标感知强度来改变被使得由多个触觉刺激单元200生成的振动的频率(而不是改变振幅)。因此,目标感知位置处的目标感知强度的触觉刺激可以被呈现给用户(如在振幅改变的情况下)。
<5-8.修改示例8>
另外,在上述实施方式中,已经主要描述了触觉刺激单元200生成振动作为触觉刺激的示例,但是本公开内容不限定于这些示例。触觉刺激单元200可以输出温度、力感信息、电刺激等作为触觉刺激。例如,用户10可以通过调整远离用户的身体布置的多个触觉刺激单元200中的每一个的温度来呈现多个触觉刺激单元200之间的位置处的目标温度。另外,服务器10可以通过调整被使得由多个触觉刺激单元200输出的力感信息的强度来呈现多个触觉刺激单元200之间的位置处的目标感知强度。另外,服务器10可以通过调整被使得由多个触觉刺激单元200输出的电刺激的强度来呈现多个触觉刺激单元200之间的位置处的目标感知强度。
<5-9.修改示例9>
另外,在上述实施方式中,已经主要描述了根据本公开内容的位置信息是关于用户的身体的位置信息的示例,但是本公开内容不限于该示例,但是位置信息可以是空间位置信息。例如,位置信息可以是真实空间中的位置信息。在这种情况下,可以设置真实空间中的目标感知位置(或目标感知位置的区域、目标感知位置的路径等)。然后,例如,在测量出穿戴夹克20的用户移动到与目标感知位置对应的位置的情况下,服务器10可以使多个触觉刺激单元200生成振动或者可以改变多个触觉刺激单元200中的每一个的振动的输出强度。
另外,位置信息可以是虚拟空间中的位置信息。在这种情况下,可以设置虚拟空间中的目标感知位置(或目标感知位置的区域、目标感知位置的路径等)。然后,在检测到与用户对应的对象移动到虚拟空间中的目标感知位置的情况下,服务器10可以使多个触觉刺激单元200生成振动,或者可以改变多个触觉刺激单元200中的每一个触觉刺激单元200的振动的输出强度。
<5-10.修改示例10>
例如,已经描述了根据本公开内容的信息处理装置是服务器10的示例,但是本公开内容不限于该示例。例如,信息处理装置可以是个人计算机(PC)、平板终端、诸如智能电话的便携式电话、游戏装置、便携式音乐播放器、诸如HMD或手腕式装置的安装装置或夹克20。
另外,在上述实施方式中,已经主要描述了根据本公开内容的触觉刺激单元被包括在夹克20中的示例,但是本公开内容不限于该示例。触觉刺激单元可以被包括在另一种装置中。例如触觉刺激单元可以被包括在手表型装置或手腕式装置中,或者可以被包括在椅子中。
<5-11.修改示例11>
另外,上述的每个实施方式的操作中的每个步骤可以不必按照所描述的顺序来处理。例如,每个步骤可以按照适当改变的顺序来处理。另外,步骤中的一些可以并行处理或单独处理,而不是按照时间顺序来处理步骤。另外,可以省略所描述的步骤中的一些步骤,或者还可以向所描述的步骤添加另一步骤。
另外,根据上述实施方式,也可以提供使CPU 150、ROM 152、RAM154等硬件展现与上述根据实施方式的服务器10的每个配置等同的功能。还提供了记录有计算机程序的记录介质。
此外,在本说明书中描述的效果仅仅是说明性的或是例示的效果,并且不是限制性的。即利用或替换上述效果,根据本公开内容的技术可以实现本领域技术人员从本说明书的描述中清楚的其他效果。
另外,本公开内容还可以配置如下。
(1)一种信息处理装置,包括:
输出控制单元,其被配置成控制至少两个触觉刺激单元的触觉刺激的输出,
其中,所述输出控制单元根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的触觉刺激单元的输出。
(2)根据(1)所述的信息处理装置,其中,所述输出控制单元根据所述预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的所述触觉刺激单元的输出强度。
(3)根据(1)或(2)所述的信息处理装置,其中,所述预定位置信息是关于用户的身体的位置信息。
(4)根据(3)所述的信息处理装置,其中,根据与所述触觉刺激单元的触觉刺激的输出相关联地显示的图像来改变所述预定位置信息。
(5)根据(4)所述的信息处理装置,其中,根据所述图像中的目标区域的位置来改变所述预定位置信息和关于与位置信息有关的触觉输出的信息。
(6)根据(5)所述的信息处理装置,其中,根据所述图像中的目标区域的移动在与所述目标区域的移动方向对应的方向上移动所述预定位置信息。
(7)根据(3)至(6)中任一项所述的信息处理装置,其中,根据与所述触觉刺激单元的触觉刺激的输出相关联地输出的声音信息来改变所述预定位置信息。
(8)根据(7)所述的信息处理装置,其中,根据输出至所述用户的声音的种类或音量来改变所述预定位置信息。
(9)根据(3)至(8)中任一项所述的信息处理装置,其中,所述预定位置信息是沿在所述身体上决定的目标路径移动的位置信息。
(10)根据(9)所述的信息处理装置,其中,随时间在所述目标路径上移动所述预定位置信息。
(11)根据(10)所述的信息处理装置,
其中,所述至少两个触觉刺激单元包括第一触觉刺激单元和第二触觉刺激单元,并且
所述目标路径是连接所述第一触觉刺激单元在所述身体上的接触位置与所述第二触觉刺激单元在所述身体上的接触位置的路径。
(12)根据(9)至(11)中任一项所述的信息处理装置,其中,所述目标路径是连接所述身体上的第一表面上的第一位置、所述身体的内部以及与所述第一表面相对的第二表面上的第二位置的路径。
(13)根据(12)所述的信息处理装置,
其中,所述至少两个触觉刺激单元包括第一触觉刺激单元和第二触觉刺激单元,
所述第一位置是所述第一触觉刺激单元在所述第一表面上的接触位置,并且
所述第二位置是所述第二触觉刺激单元在所述第二表面上的接触位置。
(14)根据(12)或(13)所述的信息处理装置,
其中,所述第一表面是所述用户的前表面,并且
所述第二表面是所述用户的后表面。
(15)根据(3)至(14)中任一项所述的信息处理装置,其中,所述预定位置信息被改变成使得所述身体上的第三位置与由所述预定位置信息指示的位置之间的距离随时间增加。
(16)根据(15)所述的信息处理装置,其中,所述第三位置是所述至少两个触觉刺激单元中的一个触觉刺激单元在所述身体上的接触位置。
(17)根据(3)至(16)中任一项所述的信息处理装置,
其中,所述至少两个触觉刺激单元包括第一触觉刺激单元,并且
所述输出控制单元基于所述第一触觉刺激单元在所述身体上的接触位置与由所述预定位置信息指示的位置之间的距离来改变所述第一触觉刺激单元的输出。
(18)根据(17)所述的信息处理装置,
其中,所述至少两个触觉刺激单元还包括第二触觉刺激单元,并且
所述输出控制单元基于所述第二触觉刺激单元在所述身体上的接触位置与由所述预定位置信息指示的位置之间的距离来改变所述第二触觉刺激单元的输出。
(19)一种信息处理方法,包括:
控制至少两个触觉刺激单元的触觉刺激的输出;以及
由处理器根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的触觉刺激单元的输出。
(20)一种使计算机用作以下的程序:
输出控制单元,其被配置成控制至少两个触觉刺激单元的触觉刺激的输出,
其中,所述输出控制单元根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的触觉刺激单元的输出。
附图标记列表
10 服务器
20 夹克
30 显示装置
32 通信网络
100 控制单元
102 内容再现单元
104 目标位置和强度决定单位
106 输出控制单元
120 通信单元
122 存储单元
200 触觉刺激单元
202 声音输出单元

Claims (20)

1.一种信息处理装置,包括:
输出控制单元,其被配置成控制至少两个触觉刺激单元的触觉刺激的输出,
其中,所述输出控制单元根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的触觉刺激单元的输出。
2.根据权利要求1所述的信息处理装置,其中,所述输出控制单元根据所述预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的所述触觉刺激单元的输出强度。
3.根据权利要求1所述的信息处理装置,其中,所述预定位置信息是关于用户的身体的位置信息。
4.根据权利要求3所述的信息处理装置,其中,根据与所述触觉刺激单元的触觉刺激的输出相关联地显示的图像来改变所述预定位置信息。
5.根据权利要求4所述的信息处理装置,其中,根据所述图像中的目标区域的位置来改变所述预定位置信息和关于与位置信息有关的触觉输出的信息。
6.根据权利要求5所述的信息处理装置,其中,根据所述图像中的目标区域的移动在与所述目标区域的移动方向对应的方向上移动所述预定位置信息。
7.根据权利要求3所述的信息处理装置,其中,根据与所述触觉刺激单元的触觉刺激的输出相关联地输出的声音信息来改变所述预定位置信息。
8.根据权利要求7所述的信息处理装置,其中,根据输出至所述用户的声音的种类或音量来改变所述预定位置信息。
9.根据权利要求3所述的信息处理装置,其中,所述预定位置信息是沿在所述身体上决定的目标路径移动的位置信息。
10.根据权利要求9所述的信息处理装置,其中,随时间在所述目标路径上移动所述预定位置信息。
11.根据权利要求10所述的信息处理装置,
其中,所述至少两个触觉刺激单元包括第一触觉刺激单元和第二触觉刺激单元,并且
所述目标路径是连接所述第一触觉刺激单元在所述身体上的接触位置与所述第二触觉刺激单元在所述身体上的接触位置的路径。
12.根据权利要求9所述的信息处理装置,其中,所述目标路径是连接所述身体上的第一表面上的第一位置、所述身体的内部以及与所述第一表面相对的第二表面上的第二位置的路径。
13.根据权利要求12所述的信息处理装置,
其中,所述至少两个触觉刺激单元包括第一触觉刺激单元和第二触觉刺激单元,
所述第一位置是所述第一触觉刺激单元在所述第一表面上的接触位置,并且
所述第二位置是所述第二触觉刺激单元在所述第二表面上的接触位置。
14.根据权利要求12所述的信息处理装置,
其中,所述第一表面是所述用户的前表面,并且
所述第二表面是所述用户的后表面。
15.根据权利要求3所述的信息处理装置,其中,所述预定位置信息被改变成使得所述身体上的第三位置与由所述预定位置信息指示的位置之间的距离随时间增加。
16.根据权利要求15所述的信息处理装置,其中,所述第三位置是所述至少两个触觉刺激单元中的一个触觉刺激单元在所述身体上的接触位置。
17.根据权利要求3所述的信息处理装置,
其中,所述至少两个触觉刺激单元包括第一触觉刺激单元,并且
所述输出控制单元基于所述第一触觉刺激单元在所述身体上的接触位置与由所述预定位置信息指示的位置之间的距离来改变所述第一触觉刺激单元的输出。
18.根据权利要求17所述的信息处理装置,
其中,所述至少两个触觉刺激单元还包括第二触觉刺激单元,并且
所述输出控制单元基于所述第二触觉刺激单元在所述身体上的接触位置与由所述预定位置信息指示的位置之间的距离来改变所述第二触觉刺激单元的输出。
19.一种信息处理方法,包括:
控制至少两个触觉刺激单元的触觉刺激的输出;以及
由处理器根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的触觉刺激单元的输出。
20.一种使计算机用作以下的程序:
输出控制单元,其被配置成控制至少两个触觉刺激单元的触觉刺激的输出,
其中,所述输出控制单元根据预定位置信息和关于与位置信息有关的触觉输出的信息来改变与所述预定位置信息对应的触觉刺激单元的输出。
CN201780041103.4A 2016-07-07 2017-04-06 信息处理装置、信息处理方法和程序 Active CN109416584B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-134717 2016-07-07
JP2016134717 2016-07-07
PCT/JP2017/014379 WO2018008217A1 (ja) 2016-07-07 2017-04-06 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
CN109416584A true CN109416584A (zh) 2019-03-01
CN109416584B CN109416584B (zh) 2022-08-02

Family

ID=60912056

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780041103.4A Active CN109416584B (zh) 2016-07-07 2017-04-06 信息处理装置、信息处理方法和程序

Country Status (6)

Country Link
US (1) US10976821B2 (zh)
EP (1) EP3483701B1 (zh)
JP (1) JP6922908B2 (zh)
KR (1) KR102427212B1 (zh)
CN (1) CN109416584B (zh)
WO (1) WO2018008217A1 (zh)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10331214B2 (en) 2015-09-08 2019-06-25 Sony Corporation Information processing device, method, and computer program
US10732714B2 (en) 2017-05-08 2020-08-04 Cirrus Logic, Inc. Integrated haptic system
CN110915231A (zh) * 2017-07-10 2020-03-24 索尼公司 信息处理装置、信息处理方法和程序
CN110892734B (zh) 2017-07-10 2021-11-05 索尼公司 信息处理装置、信息处理方法和存储介质
US11259121B2 (en) 2017-07-21 2022-02-22 Cirrus Logic, Inc. Surface speaker
WO2019124068A1 (ja) * 2017-12-19 2019-06-27 ソニー株式会社 情報処理装置および方法、並びにプログラム
WO2019163260A1 (ja) * 2018-02-20 2019-08-29 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11392203B2 (en) * 2018-03-27 2022-07-19 Sony Corporation Information processing apparatus, information processing method, and program
US10832537B2 (en) 2018-04-04 2020-11-10 Cirrus Logic, Inc. Methods and apparatus for outputting a haptic signal to a haptic transducer
US11709550B2 (en) 2018-06-19 2023-07-25 Sony Corporation Information processing apparatus, method for processing information, and program
WO2020003728A1 (ja) 2018-06-28 2020-01-02 ソニー株式会社 符号化装置、符号化方法、復号装置、復号方法、プログラム
JP2021170148A (ja) * 2018-07-02 2021-10-28 ソニーグループ株式会社 情報処理装置、情報処理方法、および記録媒体
JP7351299B2 (ja) 2018-07-03 2023-09-27 ソニーグループ株式会社 符号化装置、符号化方法、復号装置、復号方法、プログラム
US11269415B2 (en) * 2018-08-14 2022-03-08 Cirrus Logic, Inc. Haptic output systems
JP7396288B2 (ja) * 2018-09-11 2023-12-12 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、記録媒体
GB201817495D0 (en) 2018-10-26 2018-12-12 Cirrus Logic Int Semiconductor Ltd A force sensing system and method
JP2020080122A (ja) * 2018-11-14 2020-05-28 ソニー株式会社 情報処理装置、情報処理方法、および記憶媒体
JPWO2020162210A1 (ja) * 2019-02-04 2021-12-02 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
US10828672B2 (en) 2019-03-29 2020-11-10 Cirrus Logic, Inc. Driver circuitry
US11644370B2 (en) 2019-03-29 2023-05-09 Cirrus Logic, Inc. Force sensing with an electromagnetic load
US10992297B2 (en) 2019-03-29 2021-04-27 Cirrus Logic, Inc. Device comprising force sensors
US10726683B1 (en) 2019-03-29 2020-07-28 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using a two-tone stimulus
US10955955B2 (en) 2019-03-29 2021-03-23 Cirrus Logic, Inc. Controller for use in a device comprising force sensors
US11509292B2 (en) 2019-03-29 2022-11-22 Cirrus Logic, Inc. Identifying mechanical impedance of an electromagnetic load using least-mean-squares filter
US11283337B2 (en) 2019-03-29 2022-03-22 Cirrus Logic, Inc. Methods and systems for improving transducer dynamics
CN113874815A (zh) * 2019-05-28 2021-12-31 索尼集团公司 信息处理装置、信息处理方法和程序
US10976825B2 (en) 2019-06-07 2021-04-13 Cirrus Logic, Inc. Methods and apparatuses for controlling operation of a vibrational output system and/or operation of an input sensor system
GB2604215B (en) 2019-06-21 2024-01-31 Cirrus Logic Int Semiconductor Ltd A method and apparatus for configuring a plurality of virtual buttons on a device
US11408787B2 (en) 2019-10-15 2022-08-09 Cirrus Logic, Inc. Control methods for a force sensor system
US11380175B2 (en) 2019-10-24 2022-07-05 Cirrus Logic, Inc. Reproducibility of haptic waveform
US11545951B2 (en) 2019-12-06 2023-01-03 Cirrus Logic, Inc. Methods and systems for detecting and managing amplifier instability
WO2021145024A1 (ja) 2020-01-16 2021-07-22 ソニーグループ株式会社 情報処理装置、情報処理端末及びプログラム
WO2021145025A1 (ja) 2020-01-16 2021-07-22 ソニーグループ株式会社 情報処理装置、情報処理端末及びプログラム
WO2021145023A1 (ja) 2020-01-16 2021-07-22 ソニーグループ株式会社 情報処理装置及び情報処理端末
WO2021145026A1 (ja) 2020-01-17 2021-07-22 ソニーグループ株式会社 情報処理装置及び情報処理端末
US11662821B2 (en) 2020-04-16 2023-05-30 Cirrus Logic, Inc. In-situ monitoring, calibration, and testing of a haptic actuator
JPWO2022118747A1 (zh) 2020-12-04 2022-06-09
DE112021006311T5 (de) 2020-12-04 2023-10-12 Sony Group Corporation Informationsverarbeitungseinrichtung, informationsverarbeitungsverfahren, programm und informationsverarbeitungssystem
JPWO2022118748A1 (zh) 2020-12-04 2022-06-09
US11933822B2 (en) 2021-06-16 2024-03-19 Cirrus Logic Inc. Methods and systems for in-system estimation of actuator parameters
US11908310B2 (en) 2021-06-22 2024-02-20 Cirrus Logic Inc. Methods and systems for detecting and managing unexpected spectral content in an amplifier system
US11765499B2 (en) 2021-06-22 2023-09-19 Cirrus Logic Inc. Methods and systems for managing mixed mode electromechanical actuator drive
US11552649B1 (en) 2021-12-03 2023-01-10 Cirrus Logic, Inc. Analog-to-digital converter-embedded fixed-phase variable gain amplifier stages for dual monitoring paths

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337653A (ja) * 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
JP2007048268A (ja) * 2005-07-15 2007-02-22 Sca:Kk 形状記憶合金の機械振動を情報伝達手段とする触覚による情報伝達装置
CN101192097A (zh) * 2006-11-29 2008-06-04 三星电子株式会社 用于输出显示装置上的触觉反馈的设备、方法和介质
JP2009070263A (ja) * 2007-09-14 2009-04-02 Japan Science & Technology Agency 貫通触感覚提示装置
US20110080273A1 (en) * 2008-06-13 2011-04-07 Waseda University Sensation Presenting System and Sensation Presenting Device
US20120105438A1 (en) * 2010-10-29 2012-05-03 Au Optronics Corp. Three-dimensional image interactive system and position-bias compensation method of the same
JP2012187148A (ja) * 2011-03-08 2012-10-04 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
CN102822772A (zh) * 2010-03-31 2012-12-12 英默森公司 基于位置提供触觉刺激的系统和方法
US20140139450A1 (en) * 2012-11-20 2014-05-22 Immersion Corporation System and Method for Simulated Physical Interactions With Haptic Effects
US20140160082A1 (en) * 2011-12-15 2014-06-12 Industry-University Cooperation Foundation Hanyang University Apparatus and method for providing tactile sensation for virtual image
US20150130707A1 (en) * 2013-11-14 2015-05-14 Immersion Corporation Haptic spatialization system
KR20150061599A (ko) * 2013-11-27 2015-06-04 임머숀 코퍼레이션 신체 중재 디지털 콘텐츠 전송 및 햅틱 피드백 방법 및 장치
US20150227206A1 (en) * 2012-09-11 2015-08-13 Dell Products L.P. Method for using the gpu to create haptic friction maps
US20150248161A1 (en) * 2014-03-03 2015-09-03 Sony Corporation Information processing apparatus, information processing system, information processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001005601A (ja) * 1999-06-17 2001-01-12 Sony Corp 電気刺激装置及び電気刺激を用いた力触覚呈示装置並びにこれらの制御方法
US20110267294A1 (en) * 2010-04-29 2011-11-03 Nokia Corporation Apparatus and method for providing tactile feedback for user
JP6341294B2 (ja) * 2014-12-05 2018-06-13 富士通株式会社 触感提供システム、及び、触感提供装置
KR102188157B1 (ko) * 2015-12-11 2020-12-07 코오롱인더스트리 주식회사 촉각자극 제공 장치 및 그 구동 방법
US10198086B2 (en) * 2016-10-27 2019-02-05 Fluidity Technologies, Inc. Dynamically balanced, multi-degrees-of-freedom hand controller

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337653A (ja) * 2002-05-20 2003-11-28 Seiko Epson Corp 触覚・力覚提示装置および触覚・力覚提示システム
US20040095311A1 (en) * 2002-11-19 2004-05-20 Motorola, Inc. Body-centric virtual interactive apparatus and method
JP2007048268A (ja) * 2005-07-15 2007-02-22 Sca:Kk 形状記憶合金の機械振動を情報伝達手段とする触覚による情報伝達装置
CN101192097A (zh) * 2006-11-29 2008-06-04 三星电子株式会社 用于输出显示装置上的触觉反馈的设备、方法和介质
JP2009070263A (ja) * 2007-09-14 2009-04-02 Japan Science & Technology Agency 貫通触感覚提示装置
US20110080273A1 (en) * 2008-06-13 2011-04-07 Waseda University Sensation Presenting System and Sensation Presenting Device
CN102822772A (zh) * 2010-03-31 2012-12-12 英默森公司 基于位置提供触觉刺激的系统和方法
US20120105438A1 (en) * 2010-10-29 2012-05-03 Au Optronics Corp. Three-dimensional image interactive system and position-bias compensation method of the same
JP2012187148A (ja) * 2011-03-08 2012-10-04 Sony Computer Entertainment Inc 情報処理装置および情報処理方法
US20140160082A1 (en) * 2011-12-15 2014-06-12 Industry-University Cooperation Foundation Hanyang University Apparatus and method for providing tactile sensation for virtual image
US20150227206A1 (en) * 2012-09-11 2015-08-13 Dell Products L.P. Method for using the gpu to create haptic friction maps
US20140139450A1 (en) * 2012-11-20 2014-05-22 Immersion Corporation System and Method for Simulated Physical Interactions With Haptic Effects
US20150130707A1 (en) * 2013-11-14 2015-05-14 Immersion Corporation Haptic spatialization system
KR20150061599A (ko) * 2013-11-27 2015-06-04 임머숀 코퍼레이션 신체 중재 디지털 콘텐츠 전송 및 햅틱 피드백 방법 및 장치
US20150248161A1 (en) * 2014-03-03 2015-09-03 Sony Corporation Information processing apparatus, information processing system, information processing method, and program

Also Published As

Publication number Publication date
US20190196596A1 (en) 2019-06-27
WO2018008217A1 (ja) 2018-01-11
US10976821B2 (en) 2021-04-13
KR20190025844A (ko) 2019-03-12
EP3483701A1 (en) 2019-05-15
KR102427212B1 (ko) 2022-07-29
EP3483701A4 (en) 2019-07-03
JPWO2018008217A1 (ja) 2019-04-18
EP3483701B1 (en) 2023-11-01
CN109416584B (zh) 2022-08-02
JP6922908B2 (ja) 2021-08-18

Similar Documents

Publication Publication Date Title
CN109416584A (zh) 信息处理装置、信息处理方法和程序
US10792569B2 (en) Motion sickness monitoring and application of supplemental sound to counteract sickness
JP6316387B2 (ja) 広範囲同時遠隔ディジタル提示世界
JP6306442B2 (ja) プログラム及びゲームシステム
CN109643161A (zh) 动态进入和离开由不同hmd用户浏览的虚拟现实环境
JPWO2017047178A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2014204330A1 (en) Methods and systems for determining 6dof location and orientation of head-mounted display and associated user movements
JP6908053B2 (ja) 情報処理装置、情報処理方法、およびプログラム
TW201610757A (zh) 外部刺激隔離式之使用者實境體驗產生系統
CN109119057A (zh) 音乐创作方法、装置及存储介质和穿戴式设备
KR20210107710A (ko) Ar/vr 환경에서의 사용자 주의의 오디오 표시자
WO2019244716A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019087502A1 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2020090223A1 (ja) 情報処理装置、情報処理方法及び記録媒体
WO2021210585A1 (ja) コンピュータプログラム、サーバ装置、端末装置、及び方法
WO2018092486A1 (ja) 情報処理装置、方法及びプログラム
JP6622832B2 (ja) プログラム及びゲームシステム
CN109240498A (zh) 交互方法、装置、穿戴式设备及存储介质
JP2020080122A (ja) 情報処理装置、情報処理方法、および記憶媒体
CN109361727A (zh) 信息共享方法、装置、存储介质及穿戴式设备
WO2023032264A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20240005612A1 (en) Content transformations based on reflective object recognition
WO2023043646A1 (en) Providing directional awareness indicators based on context
KR20230127037A (ko) 사용자 상태 적응적 아바타 구현 방법, 컴퓨터 프로그램 및 컴퓨팅 장치
CN117331434A (zh) 在3d环境内定位内容

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant