CN108604130A - 信息处理设备、信息处理方法和非暂态计算机可读介质 - Google Patents

信息处理设备、信息处理方法和非暂态计算机可读介质 Download PDF

Info

Publication number
CN108604130A
CN108604130A CN201780009558.8A CN201780009558A CN108604130A CN 108604130 A CN108604130 A CN 108604130A CN 201780009558 A CN201780009558 A CN 201780009558A CN 108604130 A CN108604130 A CN 108604130A
Authority
CN
China
Prior art keywords
information
virtual
tactile
information processing
processing equipment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201780009558.8A
Other languages
English (en)
Inventor
浮田昌
浮田昌一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN108604130A publication Critical patent/CN108604130A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

提供了一种信息处理设备,包括:生成单元,其被配置成基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,该基准位置响应于操作体在真实空间中的移动而在虚拟空间中移动;以及输出单元,其被配置成输出触觉呈现信息,该触觉呈现信息用于利用触觉呈现装置使用户感知触觉,该触觉呈现装置被配置成基于触觉呈现信息来执行触觉呈现。

Description

信息处理设备、信息处理方法和非暂态计算机可读介质
相关申请的交叉引用
本申请要求于2016年3月30日提交的日本优先权专利申请JP2016-069360的权益,其全部内容通过引用合并到本文中。
技术领域
本公开内容涉及信息处理设备、信息处理方法和程序。
背景技术
近年来,在例如虚拟现实的领域中,提出了这样的技术以向用户呈现虚拟空间中的真实感。例如,提出了这样的技术以在用户触摸虚拟空间中的虚拟对象时向用户呈现触觉。
例如,在专利文献1中,为了获得可以反馈皮肤感觉的三维空间坐标输入装置,公开了以下技术:该技术通过使用指示虚拟对象表面的摩擦系数值的、用于生成皮肤感觉的数据,来计算对三维信息输入/输出装置的触觉呈现的控制量,并且使用该三维信息输入/输出装置通过控制电荷量来执行触觉呈现。
引用列表
专利文献
专利文献1:JP 2013-114323A
发明内容
技术问题
然而,在触觉呈现领域中,认为理想的是更精确地呈现触觉。
因此,在本公开内容中,提出了新颖和改进的并且能够更精确地呈现触觉的信息处理设备、信息处理方法和程序。
问题的解决方案
根据本公开内容的实施方式,提供了一种信息处理设备,包括:生成单元,其被配置成基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,该基准位置响应于操作体在真实空间中的移动而在虚拟空间中移动;以及输出单元,其被配置成输出触觉呈现信息,该触觉呈现信息用于利用触觉呈现装置使用户感知触觉,该触觉呈现装置被配置成基于触觉呈现信息来执行触觉呈现,生成单元和输出单元各自经由至少一个处理器来实现。
根据本公开内容的实施方式,提供了一种经由至少一个处理器实现的信息处理方法,该方法包括:基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,该基准位置响应于操作体在真实空间中的移动而在虚拟空间中移动;以及输出触觉呈现信息,该触觉呈现信息用于利用触觉呈现装置使用户感知触觉,该触觉呈现装置被配置成基于触觉呈现信息来执行触觉呈现。
根据本公开内容的实施方式,提供了一种在其中包含程序的非暂态计算机可读介质,该程序在被计算机执行时使计算机执行方法,该方法包括:基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,该基准位置响应于操作体在真实空间中的移动而在虚拟空间中移动;以及输出触觉呈现信息,该触觉呈现信息用于利用触觉呈现装置使用户感知触觉,该触觉呈现装置被配置成基于触觉呈现信息来执行触觉呈现。
本发明的有益效果
如上所述,根据本公开内容,可以更精确地呈现触觉。
注意,上述效果不一定是限制性的。与上述效果一起或代替于上述效果,可以实现本说明书中描述的效果中的任何一种效果或可根据本说明书掌握的其他效果。
附图说明
[图1]图1是示出根据本公开内容的实施方式的虚拟空间呈现系统的系统配置的示例的说明图。
[图2]图2是示出根据实施方式的触觉呈现装置的另一示例的说明图。
[图3]图3是示出根据实施方式的信息处理设备和触觉呈现装置的功能配置的示例的说明图。
[图4]图4是示出在头戴式显示器上显示图像的示例的说明图。
[图5]图5是用于说明各种触觉接收器的说明图。
[图6]图6是示出根据实施方式的以数据表格式示出的函数库的示例的说明图。
[图7]图7是示出根据实施方式的由信息处理设备执行的处理的流程的示例的流程图。
[图8]图8是示出根据实施方式的由信息处理设备执行的驱动信息生成处理的流程的示例的流程图。
[图9]图9是示出根据实施方式的由触觉呈现装置执行的处理的流程的示例的流程图。
[图10]图10是用于说明在虚拟空间中虚拟手所抓住的虚拟棍与接触对象之间的接触的说明图。
[图11]图11是示出根据第一修改例的虚拟空间呈现系统的系统配置的示例的说明图。
[图12]图12是示出根据第二修改例的虚拟空间呈现系统的系统配置的示例的说明图。
[图13]图13是示出根据第三修改例的虚拟空间呈现系统的系统配置的示例的说明图。
[图14]图14是示出根据第四修改例的虚拟空间呈现系统的系统配置的示例的说明图。
[图15]图15是示出根据本公开内容的实施方式的信息处理设备的硬件配置的示例的说明图。
具体实施方式
在下文中,将参照附图详细描述本公开内容的(一个或更多个)实施方式。在本说明书和附图中,具有基本相同的功能和结构的结构元件用相同的附图标记来表示,并且省略对这些结构元件的重复说明。
注意,将按照以下顺序给出描述。
1.虚拟空间呈现系统
2.功能配置
3.操作
4.应用示例
5.修改例
6.硬件配置
7.结论
<1.虚拟空间呈现系统>
首先,将参照图1和图2给出对根据实施方式的虚拟空间呈现系统1的描述。图1是示出根据本公开内容的实施方式的虚拟空间呈现系统1的系统配置的示例的说明图。如图1所示,虚拟空间呈现系统1包括:信息处理设备2;触觉呈现装置4;位置和姿势检测装置6;头戴式耳机8;以及头戴式显示器10。虚拟空间呈现系统1是向用户呈现虚拟空间的系统的示例。具体地,虚拟空间呈现系统1是使用被称为虚拟现实的技术来呈现具有真实感的虚拟世界(在下文中,也称为虚拟世界)的系统。
头戴式显示器10是显示图像的显示装置的示例。头戴式显示器10用于在视觉上向用户呈现虚拟世界中的感觉。具体地,在将头戴式显示器10佩戴到用户头部的状态下使用头戴式显示器10。头戴式显示器10基于从信息处理设备2发送的操作指令来显示用于示出虚拟空间中的每个对象的图像。头戴式显示器10通过有线或无线方式与信息处理设备2通信。
此外,用于检测佩戴头戴式显示器10的用户的头部方向的传感器可以被设置在头戴式显示器10中。在这种情况下,相关传感器的检测结果被发送至信息处理设备2,并且信息处理设备2基于指示用户头部方向的信息将操作指令输出至头戴式显示器10。结果,信息处理设备2可以在头戴式显示器10上显示与头部在虚拟世界中的方向相对应的图像。
头戴式耳机8是输出声音的声音输出装置的示例。头戴式耳机8用于将虚拟世界中的感觉策略性地呈现给用户。具体地,在将头戴式耳机8佩戴到用户头部的状态下使用头戴式耳机8。头戴式耳机8基于从信息处理设备2发送的操作指令来输出用于表达虚拟世界中的声音的声音。头戴式耳机8通过有线或无线方式与信息处理设备2通信。
此外,信息处理设备2可以基于指示用户头部方向的信息将操作指令输出至头戴式耳机8。结果,信息处理设备2可以使头戴式耳机8输出与头部在虚拟世界中的方向相对应的声音。
触觉呈现装置4是执行对用户的触觉呈现的装置。触觉呈现装置4用于将虚拟世界中的感觉策略性地呈现给用户。具体地,触觉呈现装置4在用户触摸虚拟空间中的虚拟对象时向用户呈现触觉。触觉呈现装置4在其被固定到用户身体的部位(在下文中,也称为部位)、并且响应于用户该部位的移动而移动的状态下使用。例如,触觉呈现装置4可以是如图1所示的手套式。在这种情况下,触觉呈现装置4在其被佩戴到用户的手部、并且响应于用户的手的移动而移动的状态下使用。触觉呈现装置4基于从信息处理设备2发送的操作指令来使用户感知振动,作为对用户的触觉,从而执行触觉呈现。例如,触觉呈现装置4具有振动器,并且将相关振动器的振动传送到用户的皮肤,从而执行触觉呈现。具体地,触觉呈现装置4生成相关振动器的振动,从而将振动传送到用户的该部位以使用户感知振动。触觉呈现装置4通过有线或无线方式与信息处理设备2通信。
注意,如果能够向用户执行触觉呈现,触觉呈现装置4可以具有其他配置。例如,可以将图2所示的笔式触觉呈现装置4a应用于虚拟空间呈现系统1。如图2所示,触觉呈现装置4a在被用户的手抓握、并且响应于用户的手的移动而移动的状态下使用。
图1所示的位置和姿势检测装置6检测触觉呈现装置4在真实空间中的位置和姿势,并且将检测结果发送至信息处理设备2。位置和姿势检测装置6可以具有图像传感器,并且根据通过成像处理获得的图像来检测触觉呈现装置4的位置和姿势。例如,位置和姿势检测装置6可以从通过成像处理获得的图像中识别触觉呈现装置4的特定部分,并且基于相关部分在所获得的图像中的位置和大小来计算真实空间中的位置。除了能够接收可见光的图像传感器之外,用于成像处理的图像传感器可以是能够接收电磁波(诸如具有除了可见光区域之外的波长的红外线或紫外线)的图像传感器。触觉呈现装置4通过有线或无线方式与信息处理设备2通信。
信息处理设备2向头戴式显示器10、头戴式耳机8和触觉呈现装置4中的每一个发送操作指令,以向用户呈现虚拟世界中的感觉。信息处理设备2将基于关于虚拟空间的信息的各种操作指令发送至各个装置。关于虚拟空间的信息包括关于虚拟空间中的每个对象的信息以及关于虚拟空间中的虚拟声源的信息。用于由信息处理设备2发送各种操作指令的关于虚拟空间的信息可以被预先存储在信息处理设备2中的存储元件中,或者可以从不同于信息处理装置2的另一装置发送至信息处理设备2。
信息处理设备2执行各种处理,使得响应于作为操作体的用户部位在真实空间中的移动,基准(诸如与相关部位对应的坐标)在虚拟空间中移动。具体地,信息处理设备2可以具有基于相关基准显示在头戴式显示器10上的虚拟部位。在这种情况下,信息处理设备2执行各种处理,使得响应于用户的部位在真实空间中的移动,作为与相关部位对应的对象的虚拟部位在视觉空间中移动。虚拟部位是基于基准而显示的本公开内容的实施方式的第二虚拟对象的示例,其中该基准响应于用户的部位在真实空间中的移动而在虚拟空间中移动。具体地,信息处理设备2执行各种处理,使得基于从位置和姿势检测单元6发送的、用于指示触觉呈现装置4在真实空间中的位置和姿势的信息,来移动与真实空间中用户的手相对应的虚拟空间中的虚拟手。例如,信息处理设备2响应于用户的手在真实空间中的移动,利用头戴式显示器10移动虚拟手的显示位置。此外,例如,当虚拟空间中的虚拟手触摸作为另一对象的接触对象时,信息处理设备2可以生成指示要由用户感知的触觉的触觉信息,并且可以将触觉呈现信息发送至触觉呈现装置4,该触觉呈现信息用于利用触觉呈现装置4使用户感知相关触觉。结果,触觉呈现装置4向用户执行触觉呈现。相关接触对象是本公开内容的实施方式的第一虚拟对象的示例,该第一虚拟对象在虚拟空间中与第二虚拟对象接触。
根据实施方式的信息处理设备2基于在虚拟空间中基准相对于接触对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,该基准响应于操作体在真实空间中的移动而在虚拟空间中移动。因此,可以根据基准相对于接触对象的相对移动方向而由用户感知适当的触觉。因此,可以更精确地呈现触觉。在以下描述中,将主要给出对根据实施方式的信息处理设备2的具体描述。此外,在下面的描述中,将主要给出以下示例的描述:信息处理设备2生成指示振动(作为被用户感知的触觉)的振动信息,作为触觉信息,并且用于利用触觉呈现装置4使用户感知振动的触觉呈现信息被发送至触觉呈现装置4。
<2.功能配置>
随后,将给出对以下示例的描述:根据实施方式的信息处理设备2的功能配置的示例,以及触觉呈现装置4的功能配置的示例。图3是示出根据实施方式的信息处理设备2和触觉呈现装置4的功能配置的示例的说明图。
<<信息处理设备>>
首先,将给出对信息处理设备2的功能配置的示例的描述。如图3所示,信息处理设备2包括:通信单元202;函数存储单元204;虚拟位置和姿势计算单元206;确定单元208;生成单元210;声音输出控制单元212;以及显示控制单元214。
(通信单元)
通信单元202与信息处理设备2的外部装置通信。具体地,通信单元202从位置和姿势检测装置6接收指示触觉呈现装置4在真实空间中的位置和姿势的信息,并且将接收到的信息输出至虚拟位置和姿势计算单元206。另外,通信单元202将从声音输出控制单元212和显示控制单元214输出的各种操作指令分别发送至头戴式耳机8和头戴式显示器10。此外,在从头戴式显示器10接收到指示用户头部方向的信息时,通信单元202将相关信息输出至声音输出控制单元212和显示控制单元214。
此外,通信单元202具有作为输出单元的功能,该输出单元输出用于利用触觉呈现装置4使用户感知振动的触觉呈现信息。具体地,通信单元202将生成单元210生成的振动信息作为触觉呈现信息发送至触觉呈现装置4,该振动信息指示振动以使用户感知振动。注意,稍后将给出对生成单元210所生成的振动信息的具体描述。
(函数存储单元)
函数存储单元204存储以下数据:该数据被参考以用于生成单元210中的振动信息的生成处理。具体地,函数存储单元204存储作为用于生成振动信息的函数的一组候选的函数库。相关函数的候选被存储并且关联至指示每种材料的信息。注意,函数库的细节将在后面介绍。此外,函数存储单元204可以存储被参考以用于信息处理设备2中的各种处理的其他数据。
(虚拟位置和姿势计算单元)
虚拟位置和姿势计算单元206计算响应于用户的部位在真实空间中的移动而在虚拟空间中移动的虚拟部位的位置和姿势,并且将计算结果输出至确定单元208、生成单元210、声音输出控制单元212和显示控制单元214。具体地,信息处理设备2基于从位置和姿势检测装置6发送的、指示触觉呈现装置4在真实空间中的位置和姿势的信息,来计算作为虚拟部位的虚拟手在虚拟空间中的位置和姿势。作为所计算的虚拟部位的虚拟手在虚拟空间中的位置和姿势对应于响应于用户部位在真实空间中的移动而在虚拟空间中移动的基准。
(显示控制单元)
显示控制单元214控制头戴式显示器10上的图像的显示。具体地,显示控制单元214控制利用通信单元202向头戴式显示器10发送操作指令,从而控制在头戴式显示器10上显示图像。例如,显示控制单元214可以基于虚拟空间中的每个对象的信息来控制在头戴式显示器10上显示示出每个对象的图像。这里,关于虚拟空间中的每个对象的信息可以包括例如以下信息中的至少一个:指示每个对象的位置的信息,指示每个对象的形状的信息,指示每个对象的表面的纹理的信息,以及指示每个对象的表面的颜色的信息。此外,响应于用户的部位在真实空间中的移动,显示控制单元214可以使头戴式显示器10基于在虚拟空间中移动的基准来显示虚拟部位。具体地,显示控制单元214可以使头戴式显示器10基于虚拟手的位置和姿势来显示虚拟手,作为所计算的虚拟空间中的虚拟部位。
图4是示出在头戴式显示器10上显示图像的示例的说明图。在图4中,响应于用户的手在真实空间中的移动,虚拟手B10在虚拟空间中移动,并且显示了作为接触对象的虚拟猫B22。显示控制单元214根据由虚拟位置和姿势计算单元206计算的指示虚拟手B10的位置和姿势的信息来使虚拟手B10的显示位置进行移动。注意,显示控制单元214可以基于指示用户头部方向的信息来控制在头戴式显示器10上显示图像。
(声音输出控制单元)
图3所示的声音输出控制单元212控制由头戴式耳机8输出的声音。具体地,声音输出控制单元212控制利用通信单元202向头戴式耳机8发送操作指令,从而控制由头戴式耳机8输出的声音。例如,声音输出控制单元212可以基于关于虚拟空间中的虚拟声源的信息来控制头戴式耳机8输出的声音。具体地,声音输出控制单元212可以在头戴式耳机8输出的声音中改变用户的右耳侧的音量与左耳侧的音量之间的平衡,并且可以增大或减小用户的右耳侧和左耳侧二者的音量。注意,声音输出控制单元212可以基于指示用户头部方向的信息来控制头戴式耳机8输出的声音。
(确定单元)
确定单元208确定虚拟空间中的虚拟部位是否与接触对象接触,并且将确定结果输出至生成单元210。具体地,确定单元208基于由虚拟位置和姿势计算单元206计算的虚拟部位的位置和姿势与接触对象的位置和姿势之间的关系来确定虚拟部位是否与接触对象接触。例如,当图4所示的虚拟手B10的一部分与虚拟猫B22部分交叠时,确定单元208确定虚拟手B10与虚拟猫B22接触。
(生成单元)
生成单元210生成指示要被用户感知的触觉的触觉信息。例如,当虚拟部位与接触对象接触时,生成单元210生成指示要被用户感知的振动的振动信息。具体地,当确定单元208确定在虚拟空间中虚拟部位与接触对象接触时,生成单元210生成振动信息。所生成的振动信息被输出至通信单元202,并且由通信单元202发送至触觉呈现装置4。振动信息可以包括指示时间频率、空间频率和幅度之间的关系的信息。在下文中将描述振动信息。
作为触觉而被人类感知的振动的频率特性可以由时间频率和空间频率这两个频率表示。时间频率对应于振动的时间变化的周期。空间频率是与在检测到振动的皮肤表面上生成振动的部分处的空间密度对应的值。人类皮肤的表层部分包括麦斯纳氏小体(Meissner's corpuscle,FAI)、帕西尼氏小体(Pacinian corpuscle,FAII),默克尔氏小体(Merkel’s corpuscle,SAI)和鲁菲尼终末(Ruffini ending,SAII)。人类可以感知与利用各个接收器对刺激的检测结果相对应的触觉。
这里,如图5所示,可被各个接收器检测到的振动的频率特性彼此不同。图5示出了可被各个接收器检测到的时间频率和空间频率的范围。如图5所示,由于接收器距皮肤表面的深度较浅,所以可检测的空间频率较高。当在皮肤表面中生成振动时,各个接收器可检测的时间频率和空间频率的振动的值对应于相关的各个接收器的检测量。例如,具有时间频率低且空间频率高的频率特性的振动的值对应于默克尔氏小体的检测量。具有时间频率高且空间频率低的频率特性的振动的值对应于帕西尼氏小体的检测量。
在通过使用户感知振动来执行触觉呈现的情况下,用户可以感受依据以下关系的触觉:要被用户感知的振动的时间频率、空间频率和幅度之间的关系。在虚拟空间呈现系统1中,触觉呈现装置4通过使用户感知与以下信息对应的振动来具体执行触觉呈现:该信息由生成单元210生成且指示时间频率、空间频率和幅度之间的关系。因此,依据由生成单元210生成的指示时间频率、空间频率和幅度之间关系的信息的触觉被呈现给用户。在下文中,将给出对生成单元210生成振动信息的具体描述。
生成单元210可以基于以下信息来生成振动信息:该信息指示被确定为与接触对象的虚拟部位相接触的部分的特性。例如,生成单元210可以基于指示被确定为与接触对象的虚拟部位相接触的部分的虚拟材料的信息来生成振动信息。具体地,生成单元210从存储在函数存储单元204中的函数库中检索关联至指示被确定为与接触对象的虚拟部位相接触的部分的虚拟材料的信息的函数,并且通过使用检索到的函数来生成振动信息。如上所述,函数库中所包括的函数的候选被存储,并且被关联至指示每种材料的信息。此外,指示每个对象的虚拟材料的信息是预设的。生成单元210基于由虚拟位置和姿势计算单元206计算的虚拟部位的位置和姿势、接触对象的位置和姿势、以及指示每个对象的材料的信息,来指定被确定与接触对象的虚拟部位相接触的部分的虚拟材料。
图6是示出以数据表格式表示的函数库D10的示例的说明图。如图6所示,在函数库D10中,在每行中,指示材料的材料标签m被关联至函数Rm(v,θ,p,T,h;f,k)。例如,材料标签“厚片(粗糙)”、材料标签“厚片(光滑)”和材料标签“薄片(粗糙)”分别被关联至函数R厚片(粗糙)(v,θ,p,T,h;f,k)、函数R厚片(光滑)(v,θ,p,T,h;f,k)和函数R薄片(粗糙)(v,θ,p,T,h;f,k)。例如,当被确定为与接触对象的虚拟部位相接触的部分的虚拟材料是木质材料(粗糙)时,生成单元210从函数库D10中检索关联至材料标签“木质材料(粗糙)”的函数R木质材料(粗糙)(v,θ,p,T,h;f,k)。认为针对虚拟空间中的每个对象设置的虚拟材料的类型是有限的。因此,如上所述,通过使用从与指示每种材料的信息关联的函数的候选中所检索的函数来生成振动信息,从而减少用于生成振动信息的信息量。因此,可以节省存储器的使用量。注意,在下面的描述中,函数Rm(v,θ,p,T,h;f,k)也被称为函数R。
函数R规定了各个参数(时间频率f、空间频率k和幅度)之间的关系。生成单元210通过将各个参数代入函数R,生成指示时间频率f、空间频率k和幅度之间的关系的响应函数r(f,k),作为振动信息。各个参数包括例如:当虚拟部位与接触对象接触时与用户的部位对应的虚拟空间中的基准相对于接触对象的相对速度v,相关基准相对于接触对象的相对移动方向θ,由虚拟部位施加到接触对象的虚拟压力p,被确定为与接触对象的虚拟部位相接触的部分的虚拟温度T,以及被确定为与接触对象的虚拟部位相接触的部分的虚拟湿度h。如上所述,生成单元210可以基于速度v、移动方向θ、压力p、温度T和湿度h来生成响应函数r(f,k)作为振动信息。注意,生成响应函数r(f,k)时的参数可以至少包括移动方向θ,并且可以省略速度v、压力p、温度T和湿度h中的至少一个。
触摸到对象时所感觉的触觉可以根据各个参数而改变。例如,对于诸如橡胶或毛皮的材料的对象的触觉容易根据温度或湿度而改变。此外,对于具有特别柔软材料的对象的触觉容易根据触摸相关对象时施加到相关对象上压力而改变。此外,随着相关对象与触摸该相关对象的人的部位之间的相对速度越高,难以检测到相关对象的表面的精细形状的差异。如上所述,通过基于指示速度v、压力p、温度T或湿度h的信息生成振动信息,可以更精确地呈现与各个参数对应的触觉。
生成单元210根据各个参数(速度v、移动方向θ和压力p),基于由虚拟位置和姿势计算单元206计算的指示虚拟部位的位置和姿势的信息来进行计算。这里,生成单元210可以例如根据虚拟部位的表面进入接触对象的内侧的距离或者虚拟部位与接触对象交叠的区域的体积来计算压力p。注意,生成单元210可以使用通过测量在真实空间中的用户部位处生成的压力而获得的值作为压力p。例如,在通过使用加压式触摸面板检测用户手指的移动的情况下,生成单元210可以使用通过测量在真实空间中的用户手指处对加压式触摸面板的压力而获得的值作为压力p。
此外,生成单元210可以使用虚拟空间中预设的值作为各个参数中的温度T和湿度h。这里,当没有针对与虚拟部位接触的接触对象设置温度或湿度时,生成单元210可以使用针对虚拟空间中的接触对象周围的环境而设置的值作为温度T或湿度h。此外,生成单元210可以使用固定值作为温度T或湿度h。
根据实施方式的生成单元210基于基准相对于虚拟空间中的第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,其中该基准响应于操作体在真实空间中的移动而在虚拟空间中移动。具体地,生成单元210基于响应于用户部位在真实空间中的移动而在虚拟空间中移动的基准相对于相关虚拟空间中的接触对象的相对移动方向来生成指示要被用户感知的振动的振动信息。此外,生成单元210可以在确定接触对象与虚拟部位接触的状态下基于基准相对于接触对象的相对移动方向来生成振动信息。可能存在真实空间中的对象的表面形状具有各向异性的情况。在这样的情况下,当相关对象触碰到人的部位时,可能存在以下情况:在触摸相关对象的表面时所感到的触觉根据人的部位相对于相关对象的相对移动方向而改变。因此,通过基于响应于用户部位在真实空间中的移动而在相关虚拟空间中移动的基准相对于虚拟空间中的接触对象的相对移动方向来生成指示要被用户感知的振动的振动信息,可以更精确地呈现触觉。
例如,在确定图4中所示的虚拟手B10触摸虚拟猫B22的情况下,生成单元210可以生成在下述两种情况下不同的振动信息:与虚拟手B10对应的基准相对于虚拟猫B22的相对移动方向是方向C12的情况,以及相对移动方向是与方向C12不同的方向C14的情况。由于存在着在真实空间中的猫的表面上生长毛发的情况,所以猫的表面形状可以具有各向异性。因此,通过基于与虚拟手B10对应的基准相对于虚拟猫B22的相对移动方向来生成振动信息,可以更精确地呈现在猫被触摸时的触觉。
此外,生成单元210可以生成在下述两种情况下不同的振动信息:与虚拟部位对应的基准的相对移动方向是第一方向的情况,以及相对移动方向是与相关的第一方向基本上相反的第二方向的情况。例如,在确定图4中所示的虚拟手B10触摸虚拟猫B22的情况下,生成单元210可以生成在下述两种情况下不同的振动信息:与虚拟手B10对应的基准相对于虚拟猫B22的相对移动方向是方向C12的情况,以及相对移动方向是与方向C12基本上相反的方向C16的情况。可能存在着在真实空间中的猫的表面上沿一个方向生长毛发的情况。在触摸猫的表面同时沿着毛发生长的方向移动手的情况下,当手的移动方向彼此相反时,可以感受到不同的触觉。具体地,可能存在以下情况:在将手从毛发的根部移动到末端时以及在沿着使毛发倒竖的方向移动手时可以感受到不同的触觉。因此,在与虚拟手B10对应的基准相对于虚拟猫B22的相对移动方向是方向C12的情况以及在相对移动方向是方向C16的情况下,生成不同的振动信息,从而更精确地呈现在触摸猫时感受到的触觉。
生成单元210可以基于指示用户部位的出汗程度的信息来生成振动信息。在这种情况下,例如,设置检测用户部位的出汗量的传感器,并且可以将检测结果从相关传感器发送至信息处理设备2。生成单元210基于从相关传感器发送的指示出汗量的信息来生成振动信息。此外,生成单元210可以基于用户的活体信息(诸如心率)来估计用户的部位的出汗量,并且基于估计的出汗量来生成振动信息。在这种情况下,例如,可以设置检测用户的生命信息(诸如心率)的传感器,以将检测结果从相关传感器发送至信息处理设备2。此外,生成单元210可以在估计出汗量的过程中从通过成像处理而获得的用户的脸部图像中提取指示用户的脸部表情或眼睛移动的信息,并且基于相关信息来估计用户的部位的出汗量。在这种情况下,例如,可以设置对用户的脸部进行成像的成像装置,以将指示用户的脸部图像的信息从相关成像装置发送至信息处理设备2。如上所述,通过基于指示用户部位的出汗程度的信息来生成振动信息,可以根据用户的部位的出汗程度更精确地呈现触觉。
此外,生成单元210可以从函数候选中的、与指示接触对象的虚拟材料的信息关联的函数的候选中检索函数,其中该接触对象具有与虚拟部位接触的可能性。例如,生成单元210可以根据虚拟空间中的场景来指定具有与虚拟部位接触的可能性的接触对象的虚拟材料。具体地,当虚拟空间中的场景是森林时,生成单元210将木质材料指定为具有与虚拟部位接触的可能性的接触对象的虚拟材料。在这种情况下,生成单元210从图6所示的函数库D10中分别与材料标签“木质材料(粗糙)”和“木质材料(光滑)”对应的函数R木质材料(粗糙)(v,θ,p,T,h;f,k)和函数R木质材料(光滑)(v,θ,p,T,h;f,k)中检索函数。另外,生成单元210可以将显示在头戴式显示器10上的对象的虚拟材料指定为具有与虚拟部位接触的可能性的接触对象的虚拟材料。如上所述,可以从函数候选中的、与指示接触对象(其具有与虚拟部位接触的可能性)的虚拟材料的信息关联的函数的候选中检索函数,从而减少计算处理的负担。
此外,生成单元210可以基于指示被确定为与接触对象接触的虚拟部位的一部分的特性的信息来生成振动信息。例如,生成单元210可以基于指示被确定为与接触对象接触的虚拟部位的一部分的虚拟材料的信息来生成振动信息。例如,生成单元210从函数库D10中检索与指示被确定为与接触对象接触的虚拟部位的一部分的虚拟材料的信息关联的函数,并且通过使用所检索的函数来生成振动信息。具体地,生成单元210从函数库D10中分别检索与指示被确定为与虚拟部位接触的接触对象的一部分的虚拟材料的信息关联的函数,以及与指示被确定为与接触对象接触的虚拟部位的一部分的虚拟材料的信息关联的函数。随后,生成单元210可以例如通过使用将两个检索到的函数相乘而获得的函数来生成振动信息。结果,可以基于虚拟部位和接触对象的虚拟材料来更精确地呈现触觉。
<<触觉呈现装置>>
随后,将给出对触觉呈现装置4的功能配置的示例的描述。如图3所示,触觉呈现装置4包括通信单元408、驱动信号计算单元406、振动控制单元404和振动单元402。
(通信单元)
通信单元408与触觉呈现装置4的外部装置进行通信。具体地,通信单元408从信息处理设备2接收由信息处理设备2生成的响应函数r(f,k)作为振动信息,并且将该信息输出至驱动信号计算单元406。
(驱动信号计算单元)
驱动信号计算单元406基于从通信单元408输出的振动信息,计算用于驱动振动单元402以使用户感知振动信息所指示的振动的驱动信号a(t),并且将该信号输出至振动控制单元404。具体地,驱动信号计算单元406计算用于由振动单元402生成与信息处理设备2所生成的响应函数r(f,k)对应的振动的驱动信号a(t)。计算的驱动信号a(t)具体为表示电流值或电压值的信号。
(振动控制单元)
振动控制单元404控制振动单元402的驱动。例如,振动单元402具有振动器,并且振动控制单元404基于作为振动信息的响应函数r(f,k)来控制相关振动器的振动。具体地,振动控制单元404基于从驱动信号计算单元406输出的驱动信号a(t)来控制振动单元402的振动器的振动。在具有振动控制单元404的振动器的振动控制下,响应函数r(f,k)被用作用于控制由振动器生成的振动的时间频率或幅度的信息。换言之,触觉呈现信息可以包括用于控制由振动器生成的振动的时间频率或幅度的信息。
(振动单元)
振动单元402基于来自振动控制单元404的操作指令来生成振动,从而使用户感知相关的振动。因此,触觉被呈现给用户。振动单元402具体地基于驱动信号a(t)来生成与信息处理设备2所生成的响应函数r(f,k)对应的振动。相关功能可以通过例如压电元件、形状记忆合金元件、聚合物致动器、气动致动器、静态致动器、超声发生装置、偏心电机、线性振动器或音圈电机来实现。振动单元402使用户感知振动,从而向用户呈现触觉。注意,当振动单元402可以生成的振动的空间频率k是固定值时,振动单元402可以生成具有时间频率f与幅度之间的关系的振动,其中该时间频率f是通过将相关固定值代入信息处理设备2所生成的响应函数r(f,k)而获得的。
如上所述,根据实施方式的信息处理设备2向触觉呈现装置4发送响应函数r(f,k),作为由生成单元210生成的指示要被用户感知的振动的振动信息,作为触觉呈现信息。此外,触觉呈现装置4计算用于由振动单元402生成与响应函数r(f,k)对应的振动的驱动信号a(t),并且生成与响应函数r(f,k)对应的振动。如上所述,用于由触觉呈现装置4生成振动的功能通过各种机制来实现,并且用于由振动单元402生成与响应函数r(f,k)对应的振动的驱动信号a(t)可能会根据所使用的机制而不同。因此,在触觉呈现装置4侧计算驱动信号a(t),从而实现了减少信息处理设备2的计算负荷并且节省所使用的存储量。此外,当在具有生成振动的不同机制的触觉呈现装置4中生成与相同的响应函数r(f,k)对应的振动时,由信息处理设备2发送的响应函数r(f,k)是共同的,从而对应于所使用的触觉呈现装置4的类型改变而灵活地执行。
<3.操作>
随后,将给出对根据实施方式的信息处理设备2和触觉呈现装置4的处理流程的描述。
(由信息处理设备执行的处理)
图7是示出根据实施方式由信息处理设备2执行的处理流程的示例的流程图。如图7所示,通信单元202首先从位置和姿势检测装置6接收用于指示触觉呈现装置4在真实空间中的位置和姿势的信息(步骤S102),并且将接收到的信息输出至虚拟位置和姿势计算单元206。接下来,虚拟位置和姿势计算单元206基于从位置和姿势检测装置6发送的用于指示触觉呈现装置4在真实空间中的位置和姿势的信息来计算虚拟部位在虚拟空间中的位置和姿势(步骤S104)。确定单元208确定在虚拟空间中虚拟部位是否与接触对象接触(步骤S106)。
如果确定单元208未确定在虚拟空间中虚拟部位与接触对象接触(在步骤S106中为“否”),则处理返回到步骤S102中的处理。另一方面,如果确定单元208确定在虚拟空间中虚拟部位与接触对象接触(在步骤S106中为“是”),则生成单元210生成响应函数r(f,k)作为用于指示当虚拟部位与接触对象接触时要被用户感知的振动的振动信息(步骤S300)。此外,通信单元202向触觉呈现装置4发送由生成单元生成的响应函数r(f,k)作为触觉呈现信息(步骤S108),并且图7中所示的处理结束。
图8是示出图7中的生成单元210的驱动信息生成处理(步骤S300)的流程的示例的流程图。在步骤S300的处理中,生成单元210计算当虚拟部位与接触对象接触时与虚拟部位对应的基准相对于接触对象的相对速度v、与虚拟部位对应的基准相对于接触对象的相对移动方向θ、以及由虚拟部位施加到接触对象的虚拟压力p(步骤S302)。接下来,生成单元210从存储在函数存储单元204中的函数库D10中检索与指示被确定为与虚拟部位接触的接触对象的一部分的虚拟材料的材料标签m关联的函数Rm(v,θ,p,T,h;f,k)(步骤S304)。生成单元210通过将各个参数代入函数R来生成表示时间频率f、空间频率k和幅度之间的关系的响应函数r(f,k),作为振动信息(步骤S306),并且图8中所示的处理结束。
(由触觉呈现装置执行的处理)
图9是示出根据实施方式由触觉呈现装置4执行的处理的流程的示例的流程图。如图9所示,通信单元408首先从信息处理设备2接收由信息处理设备2生成的响应函数r(f,k)作为振动信息(步骤S501),并且将所接收的信息输出至驱动信号计算单元406。接下来,驱动信号计算单元406计算用于利用振动单元402生成与从通信单元408输出的响应函数r(f,k)对应的振动的驱动信号a(t)(步骤S502)。随后,驱动信号计算单元406将驱动信号a(t)输出至振动控制单元404(步骤S504)。接着,振动单元402基于来自振动控制单元404的操作指令来生成振动,从而基于驱动信号a(t)向用户呈现触觉(步骤S506),并且图9所示的处理结束。
<4.应用示例>
在上文中,给出了与真实空间中的用户部位对应的虚拟部位(作为虚拟空间中的对象)与接触对象接触时向用户呈现触觉的示例的描述。然而,在另一种情况下也可以向用户呈现触觉。例如,假定虚拟接触对象(作为与虚拟空间中的虚拟部位的至少一部分接触的对象)响应于用户的部位在真实空间中的移动而移动。虚拟部位的至少一部分与虚拟接触对象接触的情况包括例如虚拟接触对象被虚拟部位抓握的情况,或者虚拟接触对象附着到虚拟部位的情况。在这些情况下,当相关的虚拟接触对象与接触对象接触时,可以将触觉呈现给用户。在下文中,将给出当虚拟部位经由与虚拟部位不同的对象间接地与接触对象接触时向用户呈现触觉的应用示例的描述。
这里,将给出由虚拟手抓握作为不同于虚拟手的对象的虚拟棍的示例的描述,其中该虚拟手作为与真实空间中的用户的手对应的虚拟空间中的对象。如图10所示,在虚拟空间中,虚拟棍B30被虚拟手B10抓握,从而与虚拟手B10的至少一部分接触。这里,虚拟棍B30对应于根据本公开内容的实施方式的第二虚拟对象的示例,其中基于响应于用户部位在真实空间中的移动而在虚拟空间中移动的基准来显示该第二虚拟对象。接触对象B24对应于根据本公开内容的实施方式的在虚拟空间中与第二虚拟对象接触的第一虚拟对象的示例。
在应用示例中,当响应于用户部位在真实空间中的移动而在虚拟空间中移动的第二虚拟对象与第一虚拟对象接触时,生成单元210基于包含物的虚拟材料来生成振动信息,其中所述包含物至少包括介于虚拟部位和第一虚拟对象之间的第二虚拟对象。在图10所示的示例中,由于虚拟棍B30介于虚拟手B10与接触对象B24之间,所以生成单元210基于作为包含物的虚拟棍B30的虚拟材料来生成振动信息。
生成单元210例如可以在生成响应函数r(f,k)时根据包含物的虚拟硬度来校正响应函数r(f,k)。具体地,生成单元210可以校正响应函数r(f,k),使得在包含物的虚拟硬度较软时,在时间频率f的高频区域中减小较大的幅度。因此,当包含物是由诸如木头的软质材料制成的对象时,与包含物是由诸如金属的硬质材料制成的对象的情况相比,可以使用户感知到时间频率的高频分量被衰减的振动。因此,可以更精确地呈现触觉。
注意,存储在函数存储单元204中的函数库可以包括与指示包含物的虚拟材料的信息关联的函数。生成单元210可以检索与指示包含物的虚拟材料的信息关联的函数,并且通过使用相关函数来生成响应函数r(f,k)。在这样的函数库中,参照图6所示的接触对象的材料标签m、指示包含物的虚拟材料的材料标签n以及函数Rmn(v,θ,p,T,h;f,k)相互关联。具体地,接触对象的材料标签“厚片(粗糙)”、包含物的材料标签“木质”以及函数R厚片(粗糙)和木质材料(v,θ,p,T,h;f,k)相互关联。
注意,与接触对象接触的第二虚拟对象可以与虚拟部位的至少一部分接触,并且包含物可以进一步介于第二虚拟对象与虚拟部位之间。例如,虚拟手套被附着到虚拟手上,并且经由相关的虚拟手套抓握虚拟棍。在这种状态下,当虚拟棍与接触对象接触时,虚拟手套介于对应于第二虚拟对象的虚拟棍和作为虚拟部位的虚拟手之间。因此,虚拟棍和虚拟手套介于虚拟部位与接触对象之间。在这种情况下,生成单元210可以基于虚拟棍和虚拟手套的虚拟材料来生成振动信息。如上所述,生成单元210可以基于介于虚拟部位与接触对象之间的多个包含物的虚拟材料来生成振动信息。
<5.修改例>
随后,将参照图11至图14给出对根据各种修改例的虚拟空间呈现系统的描述。
<<第一修改例>>
图11是示出根据第一修改例的虚拟空间呈现系统102的系统配置的示例的说明图。与根据图3所示的实施方式的虚拟空间呈现系统1相比,根据第一修改例的虚拟空间呈现系统102的不同之处在于:信息处理设备2计算用于驱动触觉呈现装置4的振动单元402的驱动信号a(t)。
如图11所示,根据第一修改例的信息处理设备2具有驱动信号计算单元250。根据第一修改例,生成单元210将所生成的振动信息输出至驱动信号计算单元250。此外,驱动信号计算单元250基于从生成单元210输出的振动信息来计算用于驱动触觉呈现装置4中的振动单元402、以使用户感知振动信息所表示的振动的驱动信号a(t),并且将该信号输出至通信单元202。通信单元202向触觉呈现装置4发送驱动信号a(t),作为通过触觉呈现装置4使用户感知振动的触觉呈现信息。注意,如图11所示,可以从根据第一修改例的触觉呈现装置4的配置中省略驱动信号计算单元。
“第二修改例”
图12是示出根据第二修改例的虚拟空间呈现系统104的系统配置的示例的说明图。与根据图3所示的实施方式的虚拟空间呈现系统1相比,根据第二修改例的虚拟空间呈现系统104在以下方面不同:由触觉呈现装置4检测触觉呈现装置4在真实空间中的位置和姿势,并且将检测结果发送至信息处理设备2。
如图12所示,根据第二修改例的触觉呈现装置4包括位置和姿势检测单元450。位置和姿势检测单元450检测触觉呈现装置4在真实空间中的位置和姿势,并且将检测结果输出至通信单元408。根据第二修改例的通信单元408将相关检测结果发送至信息处理设备2。注意,类似于根据上述实施方式的利用位置和姿势检测装置6来检测触觉呈现装置4的位置和姿势,执行利用位置和姿势检测单元450来检测触觉呈现装置4的位置和姿势。另外,如图12所示,可以从根据第二修改例的虚拟空间呈现系统104的配置中省略位置和姿势检测装置。
<<第三修改例>>
图13是示出根据第三修改例的虚拟空间呈现系统106的系统配置的示例的说明图。与根据图3所示的实施方式的虚拟空间呈现系统1相比,根据第三修改例的虚拟空间呈现系统106在以下方面不同:将函数库存储到作为信息处理设备2的外部装置的函数存储装置50。
如图13所示,根据第三修改例的虚拟空间呈现系统106包括函数存储装置50。函数存储装置50存储作为用于生成振动信息的函数的候选集合的函数库。存储在函数存储装置50中的函数库与根据实施方式的存储在函数存储单元204中的函数库类似。根据第三修改例,信息处理设备2中的通信单元202与函数存储装置50通信。此外,在振动信息的生成过程中,生成单元210经由通信单元202从存储在函数存储装置50中的函数库中检索函数R。注意,如图13所示,可以从根据第三修改例的信息处理设备2的配置中省略函数存储单元。
<<第四修改例>>
图14是示出根据第四修改例的虚拟空间呈现系统108的系统配置的示例的说明图。与根据图13所示的第三修改例的虚拟空间呈现系统106相比,根据第四修改例的虚拟空间呈现系统108在以下方面不同:信息处理设备2经由信息网络与外部装置通信。
如图14所示,在根据第四修改例的虚拟空间呈现系统108中,信息处理设备2分别经由信息网络N2、N4、N6、N8和N10与触觉呈现装置4、函数存储装置50、位置和姿势检测装置6、头戴式耳机8和头戴式显示器10进行通信。注意,信息处理设备2可以不经由信息网络与外部装置的一部分通信。
<6.硬件配置>
如上所述,描述了本公开内容的实施方式。上述信息处理设备2的处理是与信息处理设备2的软件和硬件协作实现的,这将在下面描述。
图15是示出根据本公开内容的实施方式的信息处理设备2的硬件配置的示例的说明图。如图15所示,信息处理设备2包括中央处理单元(CPU)142、只读存储器(ROM)144、随机存取存储器(RAM)146、桥接器148、总线150、接口152、输入装置154、输出装置156、存储装置158、驱动器160、连接端口162和通信装置164。
CPU 142用作操作处理装置和控制装置,并且与各种程序协作来实现信息处理设备2的各个功能部件的操作。此外,CPU 142可以是微处理器。ROM 144存储由CPU 142使用的程序、操作参数等。RAM 146临时存储在CPU 142的执行中使用的程序、在执行中适当改变的参数等。CPU 142、ROM 144和RAM 146经由具有CPU总线等的内部总线相互连接。
输入装置154是用于操作者输入信息的输入单元,诸如鼠标、键盘、触摸面板、按钮、麦克风、开关和控制杆,并且包括基于操作者的输入来生成输入信号并且将该信号输出至CPU 142的输入控制电路等。信息处理设备2的操作者操作输入装置154,从而向信息处理设备2输入各种数据或指示处理操作。
输出装置156例如执行对装置(诸如液晶显示(LCD)装置、有机发光二极管(OLED)装置或灯)的输出。此外,输出装置156可以执行扬声器、头戴式耳机等的音频输出。
存储装置158是用于存储数据的装置。此外,存储装置158可以包括存储介质、在存储介质上记录数据的记录装置,从存储介质读取数据的读取装置、删除记录在存储介质中的数据的删除装置等。存储装置158存储由CPU 142执行的程序或各种数据。
驱动器160是用于存储介质的读取器/写入器,并且被结合在信息处理设备2中或者在外部附接到信息处理设备2。驱动器160读取记录在附接的磁盘、光盘、磁光盘或者可移动存储介质(诸如半导体存储器)中的信息,并且将该信息输出至RAM 146。此外,驱动器160还可以将信息写在可移动存储介质上。
连接端口162是连接至信息处理设备2的外部信息处理设备或外围装置的总线。此外,连接端口162可以是通用串行总线(USB)。
例如,通信装置164是配置有用于连接至网络的通信装置的通信接口。此外,通信装置164可以是支持红外通信的装置、支持无线局域网(LAN)的通信装置、支持长期演进(LTE)的通信装置、或者使用线缆进行通信的有线通信装置。
注意,可以产生用于实现如上所述的根据实施方式的信息处理设备2的各个功能的计算机程序,并且在PC等中实现该程序。根据实施方式的信息处理设备2可以对应于根据本公开内容的实施方式的计算机。此外,可以提供存储这样的计算机程序的计算机可读记录介质。记录介质例如是磁盘、光盘、磁光盘或闪存。此外,计算机程序可以例如经由网络而分发,而不使用记录介质。此外,根据实施方式的信息处理设备2的各个功能可以被多个计算机划分。在这种情况下,为相关的多个计算机提供的各个功能可以通过计算机程序来实现。具有根据实施方式的信息处理设备2的各个功能的相关多个计算机或一个计算机对应于根据本公开内容的实施方式的计算机系统。
<7.结论>
如上所述,根据本公开内容的实施方式的信息处理设备2基于基准相对于虚拟空间中的第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,其中该基准响应于操作体在真实空间中的移动而在虚拟空间中移动。因此,可以根据相关基准相对于第一虚拟对象的相对移动方向来使用户感知适当的触觉。因此,可以更精确地呈现触觉。
以上描述给出了将信息处理设备2应用于使用虚拟现实的系统的示例。然而,本公开内容的技术范围不限于该示例。例如,根据本公开内容的实施方式的信息处理设备2还可以应用于增强真实。
以上描述给出了使用头戴式显示器10作为显示以下图像的显示装置的示例:该图像示出虚拟空间中的各个对象。然而,本公开内容的技术范围不限于该示例。例如,可以使用在不佩戴在头上的状态下可用的显示装置。此外,以上描述给出了使用头戴式耳机8作为输出以下声音的声音输出装置的示例:该声音用于表达虚拟世界中的声音。然而,本公开内容的技术范围不限于该示例。例如,可以使用在不佩戴在头上的状态下可用的声音输出装置。
以上描述给出了由生成单元210根据虚拟空间中的场景指定接触对象的虚拟材料的示例,该接触对象具有与虚拟部位接触的可能性。然而,本公开内容的技术范围不限于该示例。例如,生成单元210可以根据当前时间指定具有与虚拟部位接触的可能性的接触对象的虚拟材料。此外,生成单元210可以根据用户的当前位置指定具有与虚拟部位接触的可能性的接触对象的虚拟材料。这种情况被认为是根据时间或用户的位置而设置存在于虚拟空间中的对象的类型。在这种情况下,可以适当地指定具有与虚拟部位接触的可能性的接触对象的虚拟材料。
以上描述给出了位置和姿势检测装置6从通过成像处理获得的图像来检测触觉呈现装置4的位置和姿势的示例。然而,本公开内容的技术范围不限于该示例。例如,位置和姿势检测装置6可以具有以下机构:用电磁波或声波照射对象,并且基于在照射电磁波或声波之后在检测到反射波之前的时间,来检测来自相关对象的电磁波或声波的反射波以检测触觉呈现装置4的位置和姿势。位置和姿势检测装置6可以例如通过下述方式来检测触觉呈现装置4的位置和姿势:通过重复照射和检测反射波同时顺序地改变电磁波或声波的照射方向,来扫描触觉呈现装置4的可移动区域的内部。
以上描述给出了触觉呈现装置4生成振动器的振动以使用户感知振动的示例。然而,本公开内容的技术范围不限于该示例。例如,触觉呈现装置4可以基于来自振动控制单元404的操作指令向用户施加电刺激,以使用户感知振动。
以上描述给出了应用用户的部位作为操作体的示例。然而,本公开内容的技术范围不限于该示例。例如,由用户使用的用于操作的构件(诸如手写笔)可以作为操作体来应用。
以上描述给出了信息处理设备2生成指示振动(作为要被用户感知的触觉)的振动信息作为触觉信息的示例。然而,本公开内容的技术范围不限于该示例。例如,除了振动之外,还可以应用电刺激、热刺激、超声刺激等作为触觉。信息处理设备2可以生成指示要被用户感知的触觉的触觉信息。
此外,作为包括在函数库中的函数R,可以使用数据表格式的表示以下之间的关系的信息:关于各个参数的有限数目的代表值、时间频率f的有限数目的代表值、空间频率k的有限数目的代表值、以及幅度。生成单元210可以利用插值来获得以下之间的关系:没有在以数据表格式表示的信息中规定的参数,以及时间频率f或空间频率k的幅度,以生成振动信息。
注意,可以通过使用软件、硬件以及软件和硬件的组合中的任一种来实现利用本说明书中描述的装置的一系列控制处理。形成软件的程序被预先存储在例如设置在各个装置内部或外部的存储介质(非暂态介质)上。此外,各个程序例如在执行时被读取到RAM,并且被诸如CPU的处理器执行。
注意,本说明书中参照流程图描述的处理不一定按照流程图中所示的顺序来执行。一些处理步骤可以并行执行。此外,可以采用一些另外的步骤,或者可以省略一些处理步骤。
本领域技术人员应该理解,取决于设计要求和其他因素,可以出现各种修改、组合、子组合和变更,只要这些修改、组合、子组合和变更在所附权利要求或其等同物的范围内即可。
此外,本说明书中描述的效果仅仅是说明性或示例性的效果,而不是限制性的。也就是说,与上述效果一起或取代于上述效果,基于本说明书的描述,根据本公开内容的技术可以实现对于本领域技术人员而言清楚的其他效果。
另外,本技术还可以配置如下。
(1)
一种信息处理设备,包括:
生成单元,其被配置成基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准位置响应于操作体在真实空间中的移动而在所述虚拟空间中移动;以及
输出单元,其被配置成输出触觉呈现信息,所述触觉呈现信息用于利用触觉呈现装置使所述用户感知所述触觉,所述触觉呈现装置被配置成基于所述触觉呈现信息来执行触觉呈现,
所述生成单元和所述输出单元各自经由至少一个处理器来实现。
(2)
根据(1)所述的信息处理设备,还包括:
显示控制单元,其被配置成基于所述基准位置来显示第二虚拟对象,
所述显示控制单元经由至少一个处理器来实现。
(3)
根据(1)或(2)所述的信息处理设备,其中,所述生成单元还被配置成:在确定所述第一虚拟对象和所述第二虚拟对象彼此接触的状态下,基于所述基准位置相对于所述第一虚拟对象的相对移动方向来生成所述触觉信息。
(4)
根据(1)至(3)中任一项所述的信息处理设备,其中,所述生成单元还被配置成:以所述基准位置相对于所述第一虚拟对象的相对移动方向是第一方向的第一情形和所述相对移动方向是与所述第一方向不同的第二方向的第二情形之间存在不同的方式生成所述触觉信息。
(5)
根据(1)至(4)中任一项所述的信息处理设备,其中,所述生成单元还被配置成:基于指示所述第一虚拟对象的第一接触部分的特性的信息来生成所述触觉信息,所述第一接触部分被确定为与所述第二虚拟对象接触。
(6)
根据(1)至(5)中任一项所述的信息处理设备,其中,指示所述特性的信息包括指示所述第一接触部分的虚拟材料的信息。
(7)
根据(1)至(6)中任一项所述的信息处理设备,其中,所述生成单元还被配置成基于所述基准位置相对于所述第一虚拟对象的相对速度来生成所述触觉信息。
(8)
根据(1)至(7)中任一项所述的信息处理设备,其中,所述生成单元还被配置成基于指示由所述第二虚拟对象施加到所述第一虚拟对象的虚拟压力的信息来生成所述触觉信息。
(9)
根据(1)至(8)中任一项所述的信息处理设备,其中,指示所述特性的信息包括指示所述第一接触部分的虚拟温度的信息。
(10)
根据(1)至(9)中任一项所述的信息处理设备,其中,指示所述特性的信息包括指示所述第一接触部分的虚拟湿度的信息。
(11)
根据(1)至(10)中任一项所述的信息处理设备,其中,所述操作体是所述用户的身体的部位,并且所述生成单元还被配置成基于指示所述身体的所述部位的出汗程度的信息来生成所述触觉信息。
(12)
根据(1)至(11)中任一项所述的信息处理设备,其中,所述触觉信息包括指示要被所述用户感知的触觉的时间频率、空间频率和幅度之间的关系的信息。
(13)
根据(1)至(12)中任一项所述的信息处理设备,其中,所述生成单元还被配置成:从用于生成所述触觉信息的函数的多个候选中检索关联至指示所述虚拟材料的信息的至少一个函数,所述多个候选中的每个候选被关联至指示相应材料的信息并且被预先存储;并且基于检索到的至少一个函数来生成所述触觉信息。
(14)
根据(1)至(13)中任一项所述的信息处理设备,所述多个候选包括关联至指示与所述第二虚拟对象接触的所述第一虚拟对象的虚拟材料的信息的至少一个候选,并且所述生成单元还被配置成根据所述至少一个候选来检索所述至少一个函数。
(15)
根据(1)至(14)中任一项所述的信息处理设备,其中,所述触觉呈现装置还被配置成通过将基于所述触觉呈现信息而控制的振动器的振动传送至所述用户的皮肤来执行所述触觉呈现。
(16)
根据(1)至(15)中任一项所述的信息处理设备,其中,所述触觉呈现信息包括用于控制由所述振动器生成的振动的时间频率或幅度的信息。
(17)
根据(1)至(16)中任一项所述的信息处理设备,其中,所述生成单元还被配置成基于指示所述第二虚拟对象的第二接触部分的特性的信息来生成所述触觉信息,所述第二接触部分被确定为与所述第一虚拟对象接触。
(18)
根据(1)至(17)中任一项所述的信息处理设备,其中,所述生成单元还被配置成基于指示所述第二接触部分的虚拟材料的信息来生成所述触觉信息。
(19)
根据(1)至(18)中任一项所述的信息处理设备,其中,所述第二方向与所述第一方向基本上相反。
(20)
一种经由至少一个处理器实现的信息处理方法,所述方法包括:
基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准位置响应于操作体在真实空间中的移动而在所述虚拟空间中移动;以及
输出触觉呈现信息,所述触觉呈现信息用于利用触觉呈现装置使所述用户感知所述触觉,所述触觉呈现装置被配置成基于所述触觉呈现信息来执行触觉呈现。
(21)
一种在其中包含程序的非暂态计算机可读介质,所述程序在被计算机执行时使所述计算机执行方法,所述方法包括:
基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准位置响应于操作体在真实空间中的移动而在所述虚拟空间中移动;以及
输出触觉呈现信息,所述触觉呈现信息用于利用触觉呈现装置使所述用户感知所述触觉,所述触觉呈现装置被配置成基于所述触觉呈现信息来执行触觉呈现。
(22)
一种信息处理设备,包括:
生成单元,其被配置成基于虚拟空间中基准相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准响应于操作体在真实空间中的移动而在虚拟空间中移动;以及
输出单元,其被配置成输出触觉呈现信息,所述触觉呈现信息用于通过执行触觉呈现的触觉呈现装置使所述用户感知所述触觉。
(23)
根据(22)所述的信息处理设备,还包括:
显示控制单元,其被配置成具有基于所述基准而显示的第二虚拟对象。
(24)
根据(23)所述的信息处理设备,其中,所述生成单元在确定所述第一虚拟对象和所述第二虚拟对象彼此接触的状态下,基于所述基准相对于所述第一虚拟对象的相对移动方向来生成所述触觉信息。
(25)
根据(24)所述的信息处理设备,其中,所述生成单元以所述基准相对于所述第一虚拟对象的相对移动方向是第一方向的情形和所述相对移动方向是与第一方向基本上相反的第二方向的情形之间存在不同的方式生成所述触觉信息。
(26)
根据(24)或(25)所述的信息处理设备,其中,所述生成单元基于指示所述第一虚拟对象的一部分的特性的信息来生成所述触觉信息,所述一部分被确定为与所述第二虚拟对象接触。
(27)
根据(26)所述的信息处理设备,其中,所述生成单元基于指示所述第一虚拟对象的一部分的虚拟材料的信息来生成所述触觉信息,所述一部分被确定为与所述第二虚拟对象接触。
(28)
根据(22)至(27)中任一项所述的信息处理设备,其中,所述生成单元基于所述基准相对于所述第一虚拟对象的相对速度来生成所述触觉信息。
(29)
根据(26)或(27)所述的信息处理设备,其中,所述生成单元基于指示由所述第二虚拟对象施加到所述第一虚拟对象的虚拟压力的信息来生成所述触觉信息。
(30)
根据(26)或(27)所述的信息处理设备,其中,所述生成单元基于指示所述第一虚拟对象的一部分的虚拟温度的信息来生成所述触觉信息,所述一部分被确定为与所述第二虚拟对象接触。
(31)
根据(26)或(27)所述的信息处理设备,其中,所述生成单元基于指示所述第一虚拟对象的一部分的虚拟湿度的信息来生成所述触觉信息,所述一部分被确定为与所述第二虚拟对象接触。
(32)
根据(24)至(27)中任一项所述的信息处理设备,其中,所述操作体是所述用户的身体的部位,并且所述生成单元基于指示所述身体的部位的出汗程度的信息来生成所述触觉信息。
(33)
根据(22)至(32)中任一项所述的信息处理设备,其中,所述触觉信息包括指示时间频率、空间频率和幅度之间的关系的信息。
(34)
根据(26)或(27)所述的信息处理设备,其中,所述生成单元从与指示每种材料的信息关联的并且预先存储的用于生成触觉信息的函数的候选中检索与指示所述第一虚拟对象的一部分的虚拟材料的信息关联的函数,其中所述一部分被确定为与所述第二虚拟对象接触,并且所述生成单元通过使用检索到的函数来生成触觉信息。
(35)
根据(34)所述的信息处理设备,其中,所述生成单元从所述函数的候选当中的、与指示所述第一虚拟对象的虚拟材料的信息关联的函数的候选中检索所述函数,其中所述第一虚拟对象具有与所述第二虚拟对象接触的可能性。
(36)
根据(22)至(35)中任一项所述的信息处理设备,其中,所述触觉呈现装置通过将基于所述触觉呈现信息而控制的振动器的振动传送至所述用户的皮肤来执行所述触觉呈现。
(37)
根据(36)所述的信息处理设备,其中,所述触觉呈现信息包括用于控制由所述振动器生成的振动的时间频率或幅度的信息。
(38)
根据(26)或(27)所述的信息处理设备,其中,所述生成单元基于指示所述第二虚拟对象的一部分的特性的信息来生成所述触觉信息,所述一部分被确定为与所述第一虚拟对象接触。
(39)
根据(38)所述的信息处理设备,其中,所述生成单元基于指示所述第二虚拟对象的一部分的虚拟材料的信息来生成所述触觉信息,所述一部分被确定为与所述第一虚拟对象接触。
(40)
一种信息处理方法,包括:
由信息处理设备基于虚拟空间中基准相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准响应于操作体在真实空间中的移动而在虚拟空间中移动;以及
输出触觉呈现信息,所述触觉呈现信息用于通过执行触觉呈现的触觉呈现装置使所述用户感知所述触觉。
(41)
一种使计算机系统用作如下的程序:
生成单元,其被配置成基于虚拟空间中基准相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准响应于操作体在真实空间中的移动而在虚拟空间中移动;以及
输出单元,其被配置成输出触觉呈现信息,所述触觉呈现信息用于通过执行触觉呈现的触觉呈现装置使所述用户感知所述触觉。
附图标记列表
1、102、104、106、108 虚拟空间呈现系统
2 信息处理设备
4、4a 触觉呈现装置
6 位置和姿势检测装置
8 头戴式耳机
10 头戴式显示器
50 函数存储装置
142 CPU
144 ROM
146 RAM
148 桥接器
150 总线
152 接口
154 输入装置
156 输出装置
158 存储装置
160 驱动器
162 连接端口
164 通信装置
202 通信单元
204 函数存储单元
206 虚拟位置和姿势计算单元
208 确定单元
210 生成单元
212 声音输出控制单元
214 显示控制单元
250 驱动信号计算单元
402 振动单元
404 振动控制单元
406 驱动信号计算单元
408 通信单元
450 位置和姿势检测单元

Claims (20)

1.一种信息处理设备,包括:
生成单元,其被配置成基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准位置响应于操作体在真实空间中的移动而在所述虚拟空间中移动;以及
输出单元,其被配置成输出触觉呈现信息,所述触觉呈现信息用于利用触觉呈现装置使所述用户感知所述触觉,所述触觉呈现装置被配置成基于所述触觉呈现信息来执行触觉呈现,
其中,所述生成单元和所述输出单元各自经由至少一个处理器来实现。
2.根据权利要求1所述的信息处理设备,还包括:
显示控制单元,其被配置成基于所述基准位置来显示第二虚拟对象,
其中,所述显示控制单元经由至少一个处理器来实现。
3.根据权利要求2所述的信息处理设备,其中,所述生成单元还被配置成:在确定所述第一虚拟对象和所述第二虚拟对象彼此接触的状态下,基于所述基准位置相对于所述第一虚拟对象的相对移动方向来生成所述触觉信息。
4.根据权利要求3所述的信息处理设备,其中,所述生成单元还被配置成:以所述基准位置相对于所述第一虚拟对象的相对移动方向是第一方向的第一情形和所述相对移动方向是与所述第一方向不同的第二方向的第二情形之间存在不同的方式生成所述触觉信息。
5.根据权利要求3所述的信息处理设备,其中,所述生成单元还被配置成:基于指示所述第一虚拟对象的第一接触部分的特性的信息来生成所述触觉信息,所述第一接触部分被确定为与所述第二虚拟对象接触。
6.根据权利要求5所述的信息处理设备,其中,指示所述特性的信息包括指示所述第一接触部分的虚拟材料的信息。
7.根据权利要求1所述的信息处理设备,其中,所述生成单元还被配置成基于所述基准位置相对于所述第一虚拟对象的相对速度来生成所述触觉信息。
8.根据权利要求2所述的信息处理设备,其中,所述生成单元还被配置成基于指示由所述第二虚拟对象施加到所述第一虚拟对象的虚拟压力的信息来生成所述触觉信息。
9.根据权利要求5所述的信息处理设备,其中,指示所述特性的信息包括指示所述第一接触部分的虚拟温度的信息。
10.根据权利要求5所述的信息处理设备,其中,指示所述特性的信息包括指示所述第一接触部分的虚拟湿度的信息。
11.根据权利要求3所述的信息处理设备,其中,所述操作体是所述用户的身体的部位,并且所述生成单元还被配置成基于指示所述身体的所述部位的出汗程度的信息来生成所述触觉信息。
12.根据权利要求4所述的信息处理设备,其中,所述第二方向与所述第一方向基本上相反。
13.根据权利要求6所述的信息处理设备,其中,所述生成单元还被配置成:
从用于生成所述触觉信息的函数的多个候选中检索关联至指示所述虚拟材料的信息的至少一个函数,所述多个候选中的每个候选被关联至指示相应材料的信息并且被预先存储;并且
基于检索到的至少一个函数来生成所述触觉信息。
14.根据权利要求13所述的信息处理设备,其中,
所述多个候选包括关联至指示与所述第二虚拟对象接触的所述第一虚拟对象的虚拟材料的信息的至少一个候选,并且
所述生成单元还被配置成根据所述至少一个候选来检索所述至少一个函数。
15.根据权利要求1所述的信息处理设备,其中,所述触觉呈现装置还被配置成通过将基于所述触觉呈现信息而控制的振动器的振动传送至所述用户的皮肤来执行所述触觉呈现。
16.根据权利要求15所述的信息处理设备,其中,所述触觉呈现信息包括用于控制由所述振动器生成的振动的时间频率或幅度的信息。
17.根据权利要求5所述的信息处理设备,其中,所述生成单元还被配置成基于指示所述第二虚拟对象的第二接触部分的特性的信息来生成所述触觉信息,所述第二接触部分被确定为与所述第一虚拟对象接触。
18.根据权利要求17所述的信息处理设备,其中,所述生成单元还被配置成基于指示所述第二接触部分的虚拟材料的信息来生成所述触觉信息。
19.一种经由至少一个处理器实现的信息处理方法,所述方法包括:
基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准位置响应于操作体在真实空间中的移动而在所述虚拟空间中移动;以及
输出触觉呈现信息,所述触觉呈现信息用于利用触觉呈现装置使所述用户感知所述触觉,所述触觉呈现装置被配置成基于所述触觉呈现信息来执行触觉呈现。
20.一种在其中包含程序的非暂态计算机可读介质,所述程序在被计算机执行时使所述计算机执行方法,所述方法包括:
基于虚拟空间中基准位置相对于第一虚拟对象的相对移动方向来生成指示要被用户感知的触觉的触觉信息,所述基准位置响应于操作体在真实空间中的移动而在所述虚拟空间中移动;以及
输出触觉呈现信息,所述触觉呈现信息用于利用触觉呈现装置使所述用户感知所述触觉,所述触觉呈现装置被配置成基于所述触觉呈现信息来执行触觉呈现。
CN201780009558.8A 2016-03-30 2017-01-25 信息处理设备、信息处理方法和非暂态计算机可读介质 Withdrawn CN108604130A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-069360 2016-03-30
JP2016069360A JP2017182495A (ja) 2016-03-30 2016-03-30 情報処理装置、情報処理方法及びプログラム
PCT/JP2017/002601 WO2017169040A1 (en) 2016-03-30 2017-01-25 Information processing apparatus, information processing method, and non-transitory computer-readable medium

Publications (1)

Publication Number Publication Date
CN108604130A true CN108604130A (zh) 2018-09-28

Family

ID=58046719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780009558.8A Withdrawn CN108604130A (zh) 2016-03-30 2017-01-25 信息处理设备、信息处理方法和非暂态计算机可读介质

Country Status (5)

Country Link
US (1) US20190094972A1 (zh)
JP (1) JP2017182495A (zh)
CN (1) CN108604130A (zh)
DE (1) DE112017001781T5 (zh)
WO (1) WO2017169040A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112840294A (zh) * 2018-10-19 2021-05-25 索尼公司 信息处理装置、信息处理方法和程序
CN113196210A (zh) * 2018-12-13 2021-07-30 索尼集团公司 信息处理装置、信息处理系统、信息处理方法和程序
CN114206454A (zh) * 2019-08-07 2022-03-18 索尼集团公司 生成装置、生成方法、程序和触觉呈现装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019128738A (ja) * 2018-01-23 2019-08-01 東京瓦斯株式会社 商品販売システム、商品購入支援装置
WO2020122282A1 (ko) * 2018-12-13 2020-06-18 (주)리얼감 포스 피드백 방법 및 시스템, 기계로 읽을 수 있는 저장 매체
JP7452525B2 (ja) * 2019-02-26 2024-03-19 ソニーグループ株式会社 情報処理装置、情報処理方法、及びプログラム
JP2023133635A (ja) * 2020-07-30 2023-09-26 ソニーグループ株式会社 情報処理装置、触感提示システム及びプログラム
US11630504B2 (en) 2021-03-16 2023-04-18 Htc Corporation Handheld input device and electronic system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282279A (ja) * 1992-03-30 1993-10-29 Toshiba Corp 情報提示装置
JP2000047566A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の毛並接触感シミュレーション装置
EP1533678A1 (en) * 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
US7084884B1 (en) * 1998-11-03 2006-08-01 Immersion Corporation Graphical object interactions
JP2008217260A (ja) * 2007-03-01 2008-09-18 Shibaura Institute Of Technology 力覚提示装置
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
CN103439030A (zh) * 2013-09-17 2013-12-11 东南大学 一种力触觉再现中的纹理力测量方法
US20150268722A1 (en) * 2014-03-19 2015-09-24 Immersion Corporation Systems and Methods for a Shared Haptic Experience
CN105027190A (zh) * 2013-01-03 2015-11-04 美达公司 用于虚拟或增强介导视觉的射出空间成像数字眼镜

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997020305A1 (en) * 1995-11-30 1997-06-05 Virtual Technologies, Inc. Tactile feedback man-machine interface device
US6162123A (en) * 1997-11-25 2000-12-19 Woolston; Thomas G. Interactive electronic sword game
JP3722992B2 (ja) * 1998-07-24 2005-11-30 大日本印刷株式会社 物体の接触感シミュレーション装置
US6792329B2 (en) * 2001-08-22 2004-09-14 Milliken & Company Construction of colored images on absorbent substrates using a computer-aided design system
JP4921113B2 (ja) * 2006-10-25 2012-04-25 キヤノン株式会社 接触提示装置及び方法
WO2010011770A2 (en) * 2008-07-22 2010-01-28 Sony Online Entertainment Llc System and method for physics interactions in a simulation
US8550905B2 (en) * 2011-04-11 2013-10-08 Sony Computer Entertainment Inc. Temperature feedback motion controller
JP2013114323A (ja) 2011-11-25 2013-06-10 Mitsubishi Electric Corp 3次元空間座標入力装置
US9552673B2 (en) * 2012-10-17 2017-01-24 Microsoft Technology Licensing, Llc Grasping virtual objects in augmented reality
US9041647B2 (en) * 2013-03-15 2015-05-26 Immersion Corporation User interface device provided with surface haptic sensations
US10627904B2 (en) * 2014-02-07 2020-04-21 Ultrahaptics IP Two Limited Systems and methods of determining interaction intent in three-dimensional (3D) sensory space
KR101578345B1 (ko) * 2014-09-03 2015-12-17 재단법인 실감교류인체감응솔루션연구단 역감을 재생하는 장치
JP6337729B2 (ja) 2014-10-01 2018-06-06 日油株式会社 毛髪洗浄剤組成物
US9703381B2 (en) * 2015-02-18 2017-07-11 Ecole Polytechnique Federale De Lausanne (Epfl) Multimodal haptic device including a thermal and tactile display unit, system, and method of using the same
US10324530B2 (en) * 2015-12-14 2019-06-18 Facebook Technologies, Llc Haptic devices that simulate rigidity of virtual objects

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05282279A (ja) * 1992-03-30 1993-10-29 Toshiba Corp 情報提示装置
JP2000047566A (ja) * 1998-07-24 2000-02-18 Dainippon Printing Co Ltd 物体の毛並接触感シミュレーション装置
US7084884B1 (en) * 1998-11-03 2006-08-01 Immersion Corporation Graphical object interactions
EP1533678A1 (en) * 2003-11-24 2005-05-25 Sony International (Europe) GmbH Physical feedback channel for entertaining or gaming environments
JP2008217260A (ja) * 2007-03-01 2008-09-18 Shibaura Institute Of Technology 力覚提示装置
JP2009276996A (ja) * 2008-05-14 2009-11-26 Canon Inc 情報処理装置、情報処理方法
CN105027190A (zh) * 2013-01-03 2015-11-04 美达公司 用于虚拟或增强介导视觉的射出空间成像数字眼镜
CN103439030A (zh) * 2013-09-17 2013-12-11 东南大学 一种力触觉再现中的纹理力测量方法
US20150268722A1 (en) * 2014-03-19 2015-09-24 Immersion Corporation Systems and Methods for a Shared Haptic Experience

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112840294A (zh) * 2018-10-19 2021-05-25 索尼公司 信息处理装置、信息处理方法和程序
CN112840294B (zh) * 2018-10-19 2024-05-28 索尼公司 信息处理装置、信息处理方法和程序
CN113196210A (zh) * 2018-12-13 2021-07-30 索尼集团公司 信息处理装置、信息处理系统、信息处理方法和程序
CN114206454A (zh) * 2019-08-07 2022-03-18 索尼集团公司 生成装置、生成方法、程序和触觉呈现装置

Also Published As

Publication number Publication date
WO2017169040A1 (en) 2017-10-05
DE112017001781T5 (de) 2018-12-13
US20190094972A1 (en) 2019-03-28
JP2017182495A (ja) 2017-10-05

Similar Documents

Publication Publication Date Title
CN108604130A (zh) 信息处理设备、信息处理方法和非暂态计算机可读介质
US11360558B2 (en) Computer systems with finger devices
JP4989383B2 (ja) 情報処理装置、情報処理方法
JP6820652B2 (ja) 摩擦効果及び振動触覚効果を生成するシステム及び方法
CN104937521B (zh) 将触觉效果提供给输入单元的便携式终端和方法
US10488928B2 (en) Tactile sensation providing system and tactile sensation providing apparatus
CN110476142A (zh) 虚拟对象用户界面显示
US20160306426A1 (en) Simulation of tangible user interface interactions and gestures using array of haptic cells
JP2009276996A (ja) 情報処理装置、情報処理方法
US20140340326A1 (en) Drawing apparatus and drawing system
CN108434726A (zh) 自动局部触觉生成系统
US10845894B2 (en) Computer systems with finger devices for sampling object attributes
JP2008134990A (ja) 情報処理装置、情報処理方法
US20180011538A1 (en) Multimodal haptic effects
JPWO2015121971A1 (ja) 触感提供装置、及び、システム
US11681372B2 (en) Touch enabling process, haptic accessory, and core haptic engine to enable creation and delivery of tactile-enabled experiences with virtual objects
Sinclair et al. TouchMover 2.0-3D touchscreen with force feedback and haptic texture
EP3173904A1 (en) Tactile sensation data processing device, tactile sensation providing system, and tactile sensation data processing method
US20220026991A1 (en) Method and Arrangement for Handling Haptic Feedback
US20220100276A1 (en) Method for generating a haptic feedback for an interface, and associated interface
WO2023100268A1 (ja) 切削訓練補助システム
CN115885239A (zh) 信息处理装置、触感提供系统和程序

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20180928

WW01 Invention patent application withdrawn after publication