CN106371574A - 触觉反馈的方法、装置和虚拟现实交互系统 - Google Patents

触觉反馈的方法、装置和虚拟现实交互系统 Download PDF

Info

Publication number
CN106371574A
CN106371574A CN201510885281.8A CN201510885281A CN106371574A CN 106371574 A CN106371574 A CN 106371574A CN 201510885281 A CN201510885281 A CN 201510885281A CN 106371574 A CN106371574 A CN 106371574A
Authority
CN
China
Prior art keywords
region
contact
content
user
relative motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510885281.8A
Other languages
English (en)
Other versions
CN106371574B (zh
Inventor
周梁
杜琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zhigu Ruituo Technology Services Co Ltd
Original Assignee
Beijing Zhigu Ruituo Technology Services Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zhigu Ruituo Technology Services Co Ltd filed Critical Beijing Zhigu Ruituo Technology Services Co Ltd
Priority to CN201510885281.8A priority Critical patent/CN106371574B/zh
Priority to US15/348,145 priority patent/US20170160814A1/en
Publication of CN106371574A publication Critical patent/CN106371574A/zh
Application granted granted Critical
Publication of CN106371574B publication Critical patent/CN106371574B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

本申请提供了一种触觉反馈的方法,包括:在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。本申请还提供了一种触觉反馈的装置和一种虚拟现实交互系统。采用本申请实施例提供的技术方案,无需使用VR交互控制器,也无需大范围的进行触觉反馈,大大节省了产生触觉反馈所需的成本和能耗。

Description

触觉反馈的方法、装置和虚拟现实交互系统
技术领域
本申请涉及人机交互领域,尤其涉及一种触觉反馈的方法、装置和虚拟现实交互系统。
背景技术
虚拟现实(英文全称:Virtual Reality,英文简称:VR)技术是仿真技术的一个重要方向,其通过多维度的感观激励,例如,视觉、听觉、触觉、嗅觉等等让用户进入一个与身处物理环境不同的虚拟世界。理想的VR应该具有一切人所具有的感知功能。
在一个VR系统中,如果一个人看到一个杯子,想要去拿起它,可是因为这个杯子是虚拟的,所以人的手并没有真正触摸到杯子的感觉,反而会“穿过”这个虚拟的杯子。
传统的解决方案中,为了能让人们能更贴切的感受到类似上述触摸到杯子的感觉,通常是在VR交互控制器(例如,手套,或者操作棒,或者手柄等)上安装一些可以振动的触点来实现触觉反馈。
然而,这种传统的解决方案通常需要有一个VR交互控制器作为媒介,且在整个VR交互控制器上提供触觉上的反馈,成本和能耗都比较高。
发明内容
本申请的目的是:提供一种触觉反馈的方法、装置和VR交互系统。
根据本申请至少一个实施例的第一个方面,提供了一种触觉反馈的方法,所述方法包括:
在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
基于上述第一个方面,在第一个方面的第一个实施方式中,在确定所述发生接触的区域之后,所述方法还包括:在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
基于上述第一个方面的第一个实施方式,在第一个方面的第一个实施方式的第一个具体实现中,所述根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈,包括:根据所述VR呈现的内容的相关信息,在所述发生接触的区域中除了所述发生相对运动的区域之外的部分产生第一触觉反馈;根据所述VR呈现的内容的相关信息以及所述相对运动的相关参数,在所述发生相对运动的区域上产生第二触觉反馈;其中,所述第二触觉反馈包括所述第一触觉反馈以及弹性力反馈。
基于上述第一个方面的第一个实施方式,或者基于上述第一个方面的第一个实施方式的第一个具体实现,在第一个方面的第二个实施方式中,所述在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域,包括:根据至少一摄像头获取的所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
基于上述第一个方面的第二个实施方式,在第一个方面的第二个实施方式的第一个具体实现中,所述根据至少一摄像头获取的所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域,包括:分析所述至少一摄像头采集到的所述用户的静态画面或者动态影像;确定所述用户的动作发生的变化;根据所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
基于上述第一个方面,在第一个方面的第三个实施方式中,所述在所述用户的皮肤上,确定所述用户与所述VR呈现的内容发生接触的区域,包括:获取所述用户在虚拟环境中的位置信息和姿态信息;根据所述位置信息、姿态信息以及所述VR呈现的内容,确定所述发生接触的区域。
基于上述第一个方面,或者基于上述第一个方面的任一个实施方式,或者基于上述第一个方面的任一个实施方式的任一个具体实现,在第一个方面的第四个实施方式中,所述第一触觉反馈包括:所述VR呈现的内容的物理材质反馈,和/或所述VR呈现的内容的纹理反馈。
基于上述第一个方面的第四个实施方式,在第一个方面的第四个实施方式的第一个具体实现中,所述纹理反馈包括以下反馈中的至少一种:凹凸感反馈,以及粘滞感反馈。
根据本申请至少一个实施例的第二个方面,提供一种触觉反馈的装置,所述装置包括:
接触确定模块,用于在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
触觉反馈模块,用于根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
基于上述第二个方面,在第二个方面的第一个实施方式中,所述装置还包括:相对运动确定模块,用于在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
基于上述第二个方面的第一个实施方式,在第二个方面的第一个实施方式的第一个具体实现中,所述触觉反馈模块包括:第一触觉反馈子模块,用于根据所述VR呈现的内容的相关信息,在所述发生接触的区域中除了所述发生相对运动的区域之外的部分产生第一触觉反馈;第二触觉反馈子模块,用于根据所述VR呈现的内容的相关信息以及所述相对运动的相关参数,在所述发生相对运动的区域上产生第二触觉反馈;其中,所述第二触觉反馈包括所述第一触觉反馈以及弹性力反馈。
基于上述第二个方面的第一个实施方式,或者基于上述第二个方面的第一个实施方式的第一个具体实现,在第二个方面的第二个实施方式中,所述相对运动确定模块包括:相对运动确定子模块,用于根据至少一摄像头获取的所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
基于上述第二个方面的第二个实施方式,在第二个方面的第二个实施方式的第一个具体实现中,所述相对运动确定子模块包括:分析单元,用于分析所述至少一摄像头采集到的所述用户的静态画面或者动态影像;第一确定单元,用于确定所述用户的动作发生的变化;第二确定单元,用于根据所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
基于上述第二个方面,在第二个方面的第三个实施方式中,所述接触确定模块包括:位置信息确定子模块,用于获取所述用户在虚拟环境中的位置信息和姿态信息;接触确定子模块,用于根据所述位置信息、姿态信息以及所述VR呈现的内容,确定所述发生接触的区域。
根据本申请至少一个实施例的第三个方面,提供了一种VR交互系统,所述系统包括一存储器以及一处理器,其中,所述存储器用于存储指令;所述处理器用于执行所述指令,以执行下列步骤:
在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
本申请实施例所述的触觉反馈的方法、装置和VR交互系统,根据所述VR呈现的内容的相关信息,在所述用户与所述VR呈现的内容发生接触的区域至少产生第一接触反馈。从而无需使用VR交互控制器,也无需大范围的进行触觉反馈,大大节省了产生触觉反馈所需的成本和能耗。
附图说明
图1为本申请一个实施例所述触觉反馈的方法的流程示意图;
图2为本申请另一个实施例所述触觉反馈的方法的流程示意图;
图3为本申请另一个实施例所述触觉反馈的方法的流程示意图;
图4为本申请一个实施例提供的一种触觉反馈的具体实现示意图;
图5a为本申请另一个实施例所述触觉反馈的方法的流程示意图;
图5b为本申请一个实施例中确定相对运动区域的具体实现示意图;
图6为本申请另一个实施例所述触觉反馈的方法的流程示意图;
图7为本申请一个实施例所述触觉反馈的装置的模块结构示意图;
图8为本申请另一个实施例所述触觉反馈的装置的模块结构示意图;
图9为本申请另一个实施例所述触觉反馈的装置的模块结构示意图;
图10为本申请另一个实施例所述触觉反馈的装置的模块结构示意图;
图11为本申请一个实施例所述相对运动确定子模块721结构示意图;
图12为本申请另一个实施例所述触觉反馈的装置的模块结构示意图;
图13为本申请的一实施例提供的一种VR交互系统示意图。
具体实施方式
下面结合附图和实施例,对本申请的具体实施方式作进一步详细说明。以下实施例用于说明本申请,但不用来限制本申请的范围。
本领域技术人员理解,在本申请的实施例中,下述各步骤的序号的大小并不意味着执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
另外,本申请中的“第一”、“第二”等术语仅用于区别不同步骤、设备或模块等,既不代表任何特定技术含义,也不表示它们之间的必然逻辑顺序。
图1是本申请一个实施例所述触觉反馈的方法的流程图,如图1所示,所述方法可以包括:
S100:在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
S120:根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
采用本申请实施例所述的触觉反馈的方法,根据所述VR呈现的内容的相关信息,在所述用户与所述VR呈现的内容发生接触的区域至少产生第一接触反馈。从而无需使用VR交互控制器,也无需大范围的进行触觉反馈,大大节省了产生触觉反馈所需的成本和能耗。
可选的,如图2所示,上述S100之后,所述方法还可以包括:
S110:在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
在一个可选的实施方式中,可以是用户的手部,或者是用户的脚部,或者是用户身上其他部位与所述VR呈现的内容发生相对运动,本申请的实施例对此不作具体限定。在所述发生相对运动的区域内,所述用户的至少一部分肢体与所述VR呈现的内容之间的相对距离在一定时间内不为常量,即:发生了变化,示例性的,用户的手部在所述VR呈现的内容的表面上发生了横向的移动,例如,用户用手拨开在头顶虚拟呈现的树枝;或者用户的脚部在所述VR呈现的内容的表面上施加了竖直方向的力,使得所述VR呈现的内容的表面发生了形变,例如,用户用脚踩在地上虚拟呈现的一个足球,使得足球的表面下凹了一定的距离。
可选的,如图3所示,在本申请的另一个可选实施方式中,所述S120中根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈,可以包括:
S121:根据所述VR呈现的内容的相关信息,在所述发生接触的区域中除了所述发生相对运动的区域之外的部分产生第一触觉反馈;
可选的,在本申请的一个可选实施方式中,上述VR呈现的内容的相关信息可以包括:上述VR呈现的内容的属性信息,例如,所呈现的内容是什么设备,形状和厚度是什么样的,由什么样的材料制成,新旧程度如何,表面什么花纹等等,本申请的实施例对此不作具体限定。
S122:根据所述VR呈现的内容的相关信息以及所述相对运动的相关参数,在所述发生相对运动的区域上产生第二触觉反馈;其中,所述第二触觉反馈包括所述第一触觉反馈以及弹性力反馈。
可选的,在本申请的一个可选实施方式中,上述相对运动的参数可以包括:所述用户的至少一部分肢体与所述VR呈现的内容之间的相对距离的变化量,或者,所述用户持的至少一部分肢体与所述VR呈现的内容之间的相对距离的发生变化的时间等等,本申请的实施例对此不作具体限定
由于在发生相对运动的区域中,在用户与VR呈现的内容之间产生了作用力与反作用力,因此,除了第一触觉反馈,还至少会提供弹性力反馈。
可选的,在本申请的一个可选实施方式中,上述所述第一触觉反馈可以包括:所述VR呈现的内容的物理材质反馈,和/或所述VR呈现的内容的纹理反馈。示例性的,上述纹理反馈可以包括以下反馈中的一种或多种的组合:凹凸感反馈,以及粘滞感反馈。
在一种具体的实现中,可以接收外部的信号,例如,可以是空间中分布的至少一个触觉反馈传感器产生的超声或者压缩空气信号,通过外部信号产生的场效应,在用户的皮肤上产生上述第一触觉反馈,和/或产生上述第二触觉反馈。如图4所示。
可选的,如图5a所示,在本申请的另一个可选实施方式中,所述S110中在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域,可以包括:
S111:根据至少一摄像头获取的所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
示例性的,如图5b所示,可以通过空间中分布的至少一摄像头对所述用户进行拍摄,分析所述至少一摄像头采集到的所述用户的静态画面或者动态影像;确定所述用户的动作发生的变化(例如,可以确定用户的轮廓的3D深度图);根据所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
可选的,如图6所示,在本申请的另一个可选实施方式中,所述S100中在所述用户的皮肤上,确定所述用户与所述VR呈现的内容发生接触的区域,可以包括:
S101:获取所述用户在虚拟环境中的位置信息和姿态信息;
S102:根据所述位置信息、姿态信息以及所述VR呈现的内容,确定所述发生接触的区域。
示例性的,由于根据位置信息可以确定用户在哪里,根据姿态信息可以确定用户身体的不同部位在空间的坐标,因此,得到了用户在虚拟环境中的位置和姿态信息,就可以结合所述VR呈现的内容,知道用户有没有跟虚拟环境中的内容发生接触,以及什么部位发生了接触,从而确定上述发生接触的区域。
类似的,上述位置信息和/或姿态信息也可以通过空间中分布的至少一摄像头得到,此处不再赘述。
图7是本申请一个实施例所述触觉反馈的装置的模块结构示意图,所述触觉反馈的装置可以是一个独立的实体设备,也可以是一个或多个芯片,一部分电路,或者一个或多个功能模块。如图7所示,所述触觉反馈的装置可以包括:
接触确定模块710,用于在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
触觉反馈模块730,用于根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
采用本申请实施例所述的触觉反馈的装置,根据所述VR呈现的内容的相关信息,在所述用户与所述VR呈现的内容发生接触的区域至少产生第一接触反馈。从而无需使用VR交互控制器,也无需大范围的进行触觉反馈,大大节省了产生触觉反馈所需的成本和能耗。
可选的,如图8所示,在一种可选的实施方式中,所述触觉反馈的装置700还可以包括:
相对运动确定模块720,用于在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
可选的,如图9所示,在一种可选的实施方式中,所述触觉反馈模块730可以包括:
第一触觉反馈子模块731,用于根据所述VR呈现的内容的相关信息,在所述发生接触的区域中除了所述发生相对运动的区域之外的部分产生第一触觉反馈;
第二触觉反馈子模块732,用于根据所述VR呈现的内容的相关信息以及所述相对运动的相关参数,在所述发生相对运动的区域上产生第二触觉反馈;其中,所述第二触觉反馈包括所述第一触觉反馈以及弹性力反馈。
可选的,如图10所示,在一种可选的实施方式中,所述相对运动确定模块720可以包括:
相对运动确定子模块721,用于根据至少一摄像头获取的所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
在一种具体的实现中,如图11所示,所述相对运动确定子模块721可以包括:
分析单元721-A,用于分析所述至少一摄像头采集到的所述用户的静态画面或者动态影像;
第一确定单元721-B,用于确定所述用户的动作发生的变化;
第二确定单元721-C,用于根据所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
可选的,如图12所示,在一种可选的实施方式中,所述接触确定模块710可以包括:
位置信息确定子模块711,用于获取所述用户在虚拟环境中的位置信息和姿态信息;
接触确定子模块712,用于根据所述位置信息、姿态信息以及所述VR呈现的内容,确定所述发生接触的区域。
图13是本申请的另一实施例提供的一种VR交互系统示意图。参见图13,所述VR交互系统可以包括:
一存储器1310、以及一处理器1330,其中,所述存储器1310用于存储指令;所述处理器1330用于执行所述指令,以执行下列步骤:
在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
优选的,所述存储器1310和/或所述处理器1330可以集成在所述触觉反馈的装置上。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的触觉反馈的装置以及VR交互系统的具体工作过程,可以参考前述方法实施例中的触觉反馈的方法的对应过程描述,在此不再赘述。
综上,采用本申请实施例所述的VR交互系统,根据所述VR呈现的内容的相关信息,在所述用户与所述VR呈现的内容发生接触的区域至少产生第一接触反馈。从而无需使用VR交互控制器,也无需大范围的进行触觉反馈,大大节省了产生触觉反馈所需的成本和能耗。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及方法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,控制器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上实施方式仅用于说明本申请,而并非对本申请的限制,有关技术领域的普通技术人员,在不脱离本申请的精神和范围的情况下,还可以做出各种变化和变型,因此所有等同的技术方案也属于本申请的范畴,本申请的专利保护范围应由权利要求限定。

Claims (10)

1.一种触觉反馈的方法,其特征在于,包括:
在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
2.如权利要求1所述的方法,其特征在于,在确定所述发生接触的区域之后,所述方法还包括:
在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
3.如权利要求2所述的方法,其特征在于,所述根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈,包括:
根据所述VR呈现的内容的相关信息,在所述发生接触的区域中除了所述发生相对运动的区域之外的部分产生第一触觉反馈;
根据所述VR呈现的内容的相关信息以及所述相对运动的相关参数,在所述发生相对运动的区域上产生第二触觉反馈;
其中,所述第二触觉反馈包括所述第一触觉反馈以及弹性力反馈。
4.如权利要求2或3所述的方法,其特征在于,所述在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域,包括:
根据至少一摄像头获取的所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
5.一种触觉反馈的装置,其特征在于,包括:
接触确定模块,用于在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
触觉反馈模块,用于根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
6.如权利要求5所述的装置,其特征在于,所述装置还包括:
相对运动确定模块,用于在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
7.如权利要求6所述的装置,其特征在于,所述触觉反馈模块包括:
第一触觉反馈子模块,用于根据所述VR呈现的内容的相关信息,在所述发生接触的区域中除了所述发生相对运动的区域之外的部分产生第一触觉反馈;
第二触觉反馈子模块,用于根据所述VR呈现的内容的相关信息以及所述相对运动的相关参数,在所述发生相对运动的区域上产生第二触觉反馈;
其中,所述第二触觉反馈包括所述第一触觉反馈以及弹性力反馈。
8.如权利要求6或7所述的装置,其特征在于,所述相对运动确定模块包括:
相对运动确定子模块,用于根据至少一摄像头获取的所述用户的动作发生的变化,在所述发生接触的区域中确定所述用户与所述VR呈现的内容发生相对运动的区域。
9.如权利要求5所述的装置,其特征在于,所述接触确定模块包括:
位置信息确定子模块,用于获取所述用户在虚拟环境中的位置信息和姿态信息;
接触确定子模块,用于根据所述位置信息、姿态信息以及所述VR呈现的内容,确定所述发生接触的区域。
10.一种虚拟现实VR交互系统,其特征在于,所述系统包括一存储器以及一处理器,其中,所述存储器用于存储指令;所述处理器用于执行所述指令,以执行下列步骤:
在一用户的皮肤上,确定所述用户与一虚拟现实VR呈现的内容发生接触的区域;
根据所述VR呈现的内容的相关信息,在所述发生接触的区域至少产生第一接触反馈。
CN201510885281.8A 2015-12-04 2015-12-04 触觉反馈的方法、装置和虚拟现实交互系统 Active CN106371574B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201510885281.8A CN106371574B (zh) 2015-12-04 2015-12-04 触觉反馈的方法、装置和虚拟现实交互系统
US15/348,145 US20170160814A1 (en) 2015-12-04 2016-11-10 Tactile feedback method and apparatus, and virtual reality interactive system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510885281.8A CN106371574B (zh) 2015-12-04 2015-12-04 触觉反馈的方法、装置和虚拟现实交互系统

Publications (2)

Publication Number Publication Date
CN106371574A true CN106371574A (zh) 2017-02-01
CN106371574B CN106371574B (zh) 2019-03-12

Family

ID=57880732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510885281.8A Active CN106371574B (zh) 2015-12-04 2015-12-04 触觉反馈的方法、装置和虚拟现实交互系统

Country Status (2)

Country Link
US (1) US20170160814A1 (zh)
CN (1) CN106371574B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108459782A (zh) * 2017-02-17 2018-08-28 阿里巴巴集团控股有限公司 一种输入方法、装置、设备、系统和计算机存储介质
WO2020019552A1 (zh) * 2018-07-27 2020-01-30 华南理工大学 一种虚拟现实触觉反馈交互系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100277469A1 (en) * 2009-04-29 2010-11-04 International Business Machines Corporation Tactile virtual world
CN102141877B (zh) * 2010-01-29 2013-11-13 株式会社泛泰 使用全息图的用户界面和用于该用户界面的方法
CN105094311A (zh) * 2014-05-05 2015-11-25 意美森公司 用于基于视口的增强现实触觉效果的系统和方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9696803B2 (en) * 2009-03-12 2017-07-04 Immersion Corporation Systems and methods for friction displays and additional haptic effects
US20140267049A1 (en) * 2013-03-15 2014-09-18 Lenitra M. Durham Layered and split keyboard for full 3d interaction on mobile devices
US9367136B2 (en) * 2013-04-12 2016-06-14 Microsoft Technology Licensing, Llc Holographic object feedback
US11106273B2 (en) * 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100277469A1 (en) * 2009-04-29 2010-11-04 International Business Machines Corporation Tactile virtual world
CN102141877B (zh) * 2010-01-29 2013-11-13 株式会社泛泰 使用全息图的用户界面和用于该用户界面的方法
CN105094311A (zh) * 2014-05-05 2015-11-25 意美森公司 用于基于视口的增强现实触觉效果的系统和方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108459782A (zh) * 2017-02-17 2018-08-28 阿里巴巴集团控股有限公司 一种输入方法、装置、设备、系统和计算机存储介质
WO2020019552A1 (zh) * 2018-07-27 2020-01-30 华南理工大学 一种虚拟现实触觉反馈交互系统
US11520407B2 (en) 2018-07-27 2022-12-06 South China University Of Technology Virtual reality haptic feedback interaction system

Also Published As

Publication number Publication date
US20170160814A1 (en) 2017-06-08
CN106371574B (zh) 2019-03-12

Similar Documents

Publication Publication Date Title
Burdea Haptics issues in virtual environments
Massie Initial haptic explorations with the phantom: Virtual touch through point interaction
US20110228976A1 (en) Proxy training data for human body tracking
Otaduy et al. High fidelity haptic rendering
CN106371573A (zh) 触觉反馈的方法、装置和虚拟现实交互系统
Salisbury Jr Making graphics physically tangible
Wang et al. Haptic simulation of organ deformation and hybrid contacts in dental operations
CN106066688B (zh) 一种基于穿戴式手套的虚拟现实交互方法及装置
Otaduy et al. Representations and algorithms for force-feedback display
CN106371574A (zh) 触觉反馈的方法、装置和虚拟现实交互系统
CN107080586B (zh) 虚拟手术中用于软组织实时形变的交叉弹簧模型
Banihani et al. POD for real-time simulation of hyperelastic soft biological tissue using the point collocation method of finite spheres
Yi et al. The implementation of haptic interaction in virtual surgery
Kudry et al. Prototype of a wearable force-feedback mechanism for free-range immersive experience
Chen et al. Dynamic touch‐enabled virtual palpation
Wang et al. Six-degree-of-freedom haptic simulation of organ deformation in dental operations
Ujitoko et al. Interpretation of tactile sensation using an anthropomorphic finger motion interface to operate a virtual avatar
JP6775742B1 (ja) 情報処理装置、方法、およびプログラム
Zerbato et al. A unified representation to interact with simulated deformable objects in virtual environments
Burbach et al. Suitability testing of the LucidGloves prototype 4 for extended reality medical teaching
JP2000047565A (ja) 物体の接触感シミュレーション装置
CN110968183A (zh) 接触虚拟对象时提供真实物理反馈的方法及其装置
Argelaguet Sanz et al. Complexity and scientific challenges
WO2021070950A1 (ja) プログラム、設計支援装置、および設計支援方法
Sterling et al. Integrated multimodal interaction using normal maps

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant