CN110103238A - 一种远程体感交互系统、方法及存储介质 - Google Patents
一种远程体感交互系统、方法及存储介质 Download PDFInfo
- Publication number
- CN110103238A CN110103238A CN201910395493.6A CN201910395493A CN110103238A CN 110103238 A CN110103238 A CN 110103238A CN 201910395493 A CN201910395493 A CN 201910395493A CN 110103238 A CN110103238 A CN 110103238A
- Authority
- CN
- China
- Prior art keywords
- user
- sent
- central processing
- processing module
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
Abstract
本发明属于远程交互技术领域,尤其涉及一种远程体感交互系统及方法。仿真机器人,内置有传感器模块及活动装置,用于与用户进行触碰交互;传感器模块用于将用户交互后感应的信息发送至中央处理模块;活动装置用于接收活动指令并执行;阈值预警模块,用于当体感信号超过最大阈值时,阻断体感信号发送到中央处理模块。本发明的仿真机器人与用户交互时,通过传感器模块感应到用户的行为模式的信号发送至中央处理模块,经过运算处理后向另一仿真机器人发送与用户的行为模式相同的活动指令,另一仿真机器人执行活动指令。本发明实现了远程的双方也能进行体感交互的功能,且双方的交互是多线程、无延时的,从而达到了远程实时交流的目的。
Description
技术领域
本发明属于远程交互技术领域,尤其涉及一种远程体感交互系统、方法及存储介质。
背景技术
现有技术中,两个用户之间的远程交互一般都是通过语音或视频通话来进行,双方仅限于语音及画面的交流,在面对一些需要肢体接触的交互交流时,显得局限性很大,例如:远程教授舞蹈时,很多时候需要如手把手等此类触感接触的教导;或者都是通过发送指令控制对方的机器人活动来达到交流的目的,但是该方法存在着延时从而不能同步。因此,现有的远程交互方法存在着不能通过体感、或不能同步进行远程交互的技术问题。
因此,有必要提供相应的技术方案来解决上述技术问题。
发明内容
本发明的一个目的在于提供一种远程体感交互系统、方法,以解决现有的远程交互方法存在着不能通过体感、或不能同步进行远程交互的技术问题。
本发明一方面的目的是提供一种远程体感交互系统,在第一种具体实施例中,包括:
第一仿真机器人,采用仿真人体设计,包括第一皮肤层、第一骨骼层及第一填充层;所述第一皮肤层内置有第一传感器模块;结合所述第一骨骼层安装有第一活动装置,用于与第一用户进行触碰交互;所述第一传感器模块用于将所述第一用户触碰交互后感应的体感信号转化为电信号发送至中央处理模块;所述第一活动装置用于接收所述中央处理模块发送的活动指令并执行;
第二仿真机器人,采用仿真人体设计,包括第二皮肤层、第二骨骼层及第二填充层,所述第二皮肤层内置有第二传感器模块;结合所述第二骨骼层安装有第二活动装置,用于与第二用户进行触碰交互;所述第二传感器模块用于将所述第二用户触碰交互后感应的体感信号转化为电信号发送至所述中央处理模块;所述第二活动装置用于接收所述中央处理模块发送的活动指令并执行;
所述中央处理模块,用于接收所述第一传感器模块及所述第二传感器模块发送的电信号,将所述电信号进行识别并还原出所述第一用户及所述第二用户的触碰交互的行为模式;并根据所述第一用户的行为模式制作成相同行为的活动指令发送至所述第二仿真机器人,根据所述第二用户的行为模式制作成相同行为的活动指令发送至所述第一仿真机器人;
阈值预警模块,用于对所述第一传感器模块及所述第二传感器模块二者感应的体感信号进行最大阈值的设定,当所述体感信号超过所述最大阈值时,阻断所述体感信号发送到所述中央处理模块。
结合第一种具体实施例,在第二种具体实施例中,还包括:动作捕捉装置,所述动作捕捉装置有红外采像设备及惯性运动捕捉设备,用于捕捉所述第一用户及所述第二用户的动作信息,并发送至所述中央处理模块。
结合第一种具体实施例,在第三种具体实施例中,所述第一仿真机器人及所述第二仿真机器人的所述皮肤层均安装有发热装置模块,用于接收所述中央处理模块发送的发热信号进行当前位置的发热。
结合第一种具体实施例,在第四种具体实施例中,所述第一仿真机器人及所述第二仿真机器人二者对应人体的可湿润部位设有湿润装置模块。
结合第一种具体实施例,在第五种具体实施例中,所述第一仿真机器人及所述第二仿真机器人还包括:表情捕捉装置及表情生成装置;所述表情捕捉装置用于捕捉用户的表情并发送至所述中央处理模块;所述表情生成装置用于接收所述中央处理模块的表情生成指令并执行。
结合第一种具体实施例,在第六种具体实施例中,所述第一仿真机器人及所述第二仿真机器人还包括:声音收录装置及音响装置;所述声音收录装置用于收录用户的声音并发送至所述中央处理模块;所述音响装置用于接收所述中央处理模块的声音信号并播放。
结合第一种具体实施例,在第七种具体实施例中,所述第一传感器模块及所述第二传感器模块中包括:压力传感器、速度传感器、湿度传感器及温度传感器。
结合第一种具体实施例,在第八种具体实施例中所述第一活动装置及所述第二活动装置设有安全力度阈值;当接收到的活动指令的力度超过所述安全力度阈值时,所述第一活动装置或所述第二活动装置停止动作。
本发明另一方面的目的是提供一种远程体感交互方法。
具体的实施方式中,包括以下步骤:
步骤S10:预先对所述第一用户及所述第二用户建立生物体征模型,调节交互过程中的参数并进行存储,从而可实现后续的面部识别;
步骤S210:获取所述第一用户对所述第一仿真机器人触碰交互时,第一传感器模块发出的电信号;
步骤S30:所述中央处理模块对所述电信号进行识别解析并还原出所述第一用户对所述第一仿真机器人的行为模式;
步骤S40:根据所述行为模式生成相应的活动指令发送至所述第二仿真机器人;
步骤S50:控制所述第二仿真机器人对所述第二用户执行所述活动指令。
其中,所述第二仿真机器人与所述第二用户的交互方法的步骤与上述步骤相同。
本发明再一方面的目的是提供一种存储介质。
一种存储介质,存储计算机指令,所述计算机指令在处理器上运行时,可执行如上述的远程体感交互方法的步骤。
本发明具有以下优点:第一仿真机器人与第一用户交互时,通过第一传感器模块感应到第一用户的行为模式的信号转化为电信号发送至中央处理模块,经过中央处理模块运算处理后向第二仿真机器人发送与第一用户的行为模式相同的活动指令,第二仿真机器人执行活动指令时即对第二用户进行了与第一用户相同行为模式的交互。同理,第一仿真机器人执行活动指令即对第一用户进行了与第二用户相同行为模式的交互;同时阈值预警模块可防止力度或速度过大导致仿真机器人对人体的损伤。本发明实现了远程的双方也能进行体感交互的功能,且双方的交互是同步、无延时的,从而达到了远程实时交流的目的。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明提供的一种远程体感交互系统的装置架构图;
图2是本发明提供的另一种远程体感交互系统的装置架构图;
图3是本发明对应图1的远程体感交互方法的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
参见图1及图2,本发明一方面的目的在于提供一种远程体感交互系统,以解决现有的远程交互方法存在着不能通过体感、或不能同步进行远程交互的技术问题。
本发明一方面的目的是提供一种远程体感交互系统,
参见图1,一方面,包括:第一仿真机器人1,采用仿真人体设计,包括第一皮肤层、第一骨骼层及第一填充层;第一皮肤层内置有第一传感器模块11;结合第一骨骼层安装有第一活动装置12,用于与第一用户进行触碰交互;第一传感器模块11用于将第一用户触碰交互后感应的体感信号转化为电信号发送至中央处理模块3;第一活动装置11用于接收中央处理模块3发送的活动指令并执行。
同理,第二仿真机器人2,采用仿真人体设计,包括第二皮肤层、第二骨骼层及第二填充层,第二皮肤层内置有第二传感器模块21;结合第二骨骼层安装有第二活动装置22,用于与第二用户进行触碰交互;第二传感器模块21用于将第二用户触碰交互后感应的体感信号转化为电信号发送至中央处理模块3;第二活动装置22用于接收中央处理模块3发送的活动指令并执行。
能够理解的是,为方便阐述本发明提供的技术方案,如果没有特意强调,则下文中阐述“机器人”时包括第一仿真机器人1和/或第二仿真机器人2,阐述“皮肤层”时包括第一皮肤层和/或第二皮肤层,阐述“骨骼层”时包括第一骨骼层和/或第二骨骼层,阐述“填充层”时包括第一填充层和/或第二填充层,阐述“传感器”时包括第一传感器模块11和/或第二传感器模块21,阐述“活动装置”时包括第一活动装置12和/或第二活动装置22,阐述“用户”时包括第一用户和/或第二用户。
另外,机器人的皮肤层对应于人体的皮肤,骨骼层对应于人体的骨骼,填充层对应于人体的除皮肤与骨骼之外的组织。其中,通过伺服电机等驱动装置与骨骼层的结合构成了仿真机器人的活动装置。
需要说明的是,机器人的皮肤层内侧安装有若干的传感器,当用户触碰机器人时,机器人内的传感器感受相应的刺激信号转化为电信号发送至中央处理模块3,中央处理模块3对电信号进行解析处理获得用户的行为模式的数据。
例如,当用户拥抱机器人时,用户的双臂触碰挤压机器人的双臂,胸膛大面积的按压机器人的胸膛,双掌按压在机器人的背后,此时机器人体内各处的传感器感应到相应的力度、温度、湿度等信息通过电信号的方式发送到中央处理模块,中央处理模块通过上述的数据得出用户正在拥抱机器人的结果。
另外,机器人内的活动装置可控制机器人做出各种力度大小不同的动作。当中央处理模块3通过得出用户正在拥抱机器人的结果时,将该结果的控制指令发送至另一机器人,另一机器人的活动装置根据控制指令对另一用户进行拥抱。此时,第一用户对第一仿真机器人1做出的动作通过中央处理模块3的传输,第二仿真机器人2对第二用户则做出相同的动作,因此实现同步远程体感交互的目的。
另一方面,参见图1与图2,包括中央处理模块3,用于接收第一传感器模块11及第二传感器模块21发送的电信号,将电信号进行识别并还原出第一用户及第二用户的触碰交互的行为模式;并根据第一用户的行为模式制作成相同行为的活动指令发送至第二仿真机器人2,根据第二用户的行为模式制作成相同行为的活动指令发送至第一仿真机器人1。
其中,中央处理模块3包括服务器,无线传输装置等,可对传感器传递的电信号进行解析。需要说明的是,第一仿真机器人1发送信号通过中央处理模块3至第二仿真机器人2与第二仿真机器人2发送信号通过中央处理模块3至第一仿真机器人1是多线程、可同时进行的。如图1与图2所示,第一用户对第一仿真机器人1的反馈系统与第二用户对第二仿真机器人2的反馈系统是互相独立、可以同时进行的,为了方便理解,图中分别用实线与虚线进行了区别。
另外,机器人的传感器在接收用户的刺激信号时,活动装置可同时接收中央处理模块3的指令进行活动。
另一方面,参见图1与图2,还包括阈值预警模块4,用于对第一传感器模块11及第二传感器模块21二者感应的体感信号进行最大阈值的设定,当体感信号超过最大阈值时,阻断体感信号发送到中央处理模块3。
例如,第一用户对第一仿真机器人1进行用力挥拳,当第一仿真机器人1的压力传感器发送的力度信息超过阈值预警模块4预设的数值时,阈值预警模块4则阻断压力传感器向中央处理模块3发送信号,或者将压力传感器向中央处理模块3的压力信号中的数值调整为预设的阈值的大小。
其中,机器人的填充层在一些活动部位填充着气囊等缓冲装置,收到过大的冲击时容易引发对人体的伤害,因此,设置阈值预警模块4的目的在于使整个交互系统的安全性更高。
本发明的应用场景包括但不限于:跳舞、远程拳击、远程教学、远程交流及远程体感交互等。特别的是,预先对第一用户及第二用户建立生物体征模型,调节交互过程中的参数并进行存储于对应的仿真机器人中,从而可实现面部识别。因此仿真的机器人可做成特定的模样,而远程交流的对方用户可为任何人,因此,在某些方面可以满足用户对特定对象的心理或生理需求。
特别的是,当仅有第一用户与第一仿真机器人1时,此时第一仿真机器人1即类似于AI机器人。
更进一步的是,参见图2,还包括:动作捕捉装置13,动作捕捉装置13有红外采像设备及惯性运动捕捉设备,用于捕捉第一用户及第二用户的动作信息,并发送至中央处理模块3。
其中,动作捕捉装置13对用户进行动作捕捉,采用红外摄像的技术进行采像,结合图形处理可获得用户主要肢体的运动轨迹。需要说明的是,上述技术为公开的现有技术,故在此不做进一步的说明。因此,本技术方案可辅助甚至成为主要的识别用户行为模式的装置。因此,本技术方案可更进一步的确认用户的行为模式,使得双方的远程交互更安全更符合对方的行为动作。
当用户及仿真机器人已经亲密接触的情况下,更侧重的是惯性运动捕捉设备的动作捕捉数据,通过红外采像设备与惯性运动捕捉设备在不同的情形的互相结合补充的作用下,用户与仿真机器人的交互动作行为得到了清晰的数据建模与还原。
需要说明的是,结合独立权利要求1的本技术方案为传感器加上动作捕捉装置13共同识别用户的行为模式,但进一步可实现的有,仅有动作捕捉装置而无传感器同样能够实现远程动作交互的目的。
更进一步的是,参见图2,第一仿真机器人1及第二仿真机器人2的皮肤层均安装有发热装置模块14,用于接收中央处理模块3发送的发热信号进行当前位置的发热。
当在一些特定的场景,如拳击,造成皮肤红肿发热;又例如对仿真机器人进行一些生理性的活动时,用户的局部某些部位温度升高,机器人的温度传感器感觉到相关的变化发送到中央处理模块3;中央处理模块3将该温度变化发送到另一机器人,另一用户通过机器人则也能感应到对方用户的局部某些部位的温度的变化。同理,另一用户也能对上述变化的应激反应进行双向的反馈。因此,本技术方案可使得双方的远程交互更具有临场感与真实感。
更进一步的是,参见图2,第一仿真机器人1及第二仿真机器人2二者对应人体的可湿润部位设有湿润装置模块15。
需要说明的是,人体的可湿润部位包括眼镜、嘴巴以及阴部。当用户对仿真机器人进行一些远程交互,如生理性活动时,用户的身体产生相关的生理性的湿滑度的变化,机器人的湿度传感器感觉到相关的变化发送到中央处理模块3;中央处理模块3将该湿度变化发送到另一机器人,另一用户通过机器人则也能感应到对方用户的局部某些部位的湿度的变化。同理,另一用户也能对上述变化的应激反应进行双向的反馈。因此,本技术方案可使得双方的远程交互更具有临场感与真实感。
更进一步的是,参见图2,第一仿真机器人1及第二仿真机器人2还包括:表情捕捉装置及表情生成装置16;表情捕捉装置用于捕捉用户的表情并发送至中央处理模块3;表情生成装置用于接收中央处理模块3的表情生成指令并执行。
考虑到,用户双方的交流时,结合实时的表情能够使得双方的交流更符合实际同时更具有真实感。其中表情捕捉装置与表情生成装置16的工作原理类似于传感器与活动装置,故不再重复阐述说明。
更进一步的是,参见图2,第一仿真机器人1及第二仿真机器人2还包括:声音收录装置及音响装置17;声音收录装置用于收录用户的声音并发送至中央处理模块3;音响装置用于接收中央处理模块3的声音信号并播放。
其中,音响装置可直接播放对方用户的声音收录装置收录的声音内容,即达到了双方实时语音交流的目的,使得双方的交互更具真实感。
更进一步的是,第一传感器模块11及第二传感器模块21中包括:压力传感器、速度传感器、湿度传感器及温度传感器。
其中,压力传感器可感受用户对机器人的当前部位按压的力度,并通过电信号发送至中央处理模块。同理,速度传感器可感应用户的交互的速度,湿度传感器可感应用户某些部位的湿滑度变化,温度传感器可感应用户皮肤的温度变化。特别的是,例如,当第一仿真机器人某部位感受到第一用户的某个温度时,通过中央处理模块,则第二仿真机器人相应的部位改变温度并以同样的方式与第二用户交互。
更进一步的是,第一活动装置12及第二活动装置22设有安全力度阈值;当接收到的活动指令的力度超过安全力度阈值时,第一活动装置12或第二活动装置22停止动作。
为了防止某些较为极端的情况,当机器人接收到的指令中力度的信息超过预设的阈值时,则机器人停止活动,防止用户对机器人过大的力度会同样的使得对方机器人对另一用户造成过大力度的伤害,使得本系统更加的安全。
本发明另一方面的目的是提供一种远程体感交互方法,参见图3,包括以下步骤:
步骤S10:预先对第一用户及第二用户建立生物体征模型,调节交互过程中的参数并进行存储,从而可实现后续的面部识别;
步骤S20:获取第一用户对第一仿真机器人1触碰交互时,第一传感器模块发出的电信号;
步骤S30:中央处理模块3对电信号进行识别解析并还原出第一用户对第一仿真机器人1的行为模式;
步骤S40:根据行为模式生成相应的活动指令发送至第二仿真机器人2;
步骤S50:控制第二仿真机器人2对第二用户执行所述活动指令。
其中,第二仿真机器人2与第二用户的交互方法的步骤与上述步骤相同。
本发明再一方面的目的是提供一种存储介质。
一种存储介质,存储计算机指令,计算机指令在处理器上运行时,可执行如上述的远程体感交互方法的步骤。
本发明具有以下优点:第一仿真机器人1与第一用户交互时,通过第一传感器模块感应到第一用户的行为模式的信号转化为电信号发送至中央处理模块3,经过中央处理模块3运算处理后向第二仿真机器人2发送与第一用户的行为模式相同的活动指令,第二仿真机器人2执行活动指令时即对第二用户进行了与第一用户相同行为模式的交互。同理,第一仿真机器人1执行活动指令即对第一用户进行了与第二用户相同行为模式的交互。同时阈值预警模块可防止力度或速度过大导致仿真机器人对人体的损伤。本发明实现了远程的双方也能进行体感交互的功能,且双方的交互是同步、无延时的,从而达到了远程实时交流的目的。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种远程体感交互系统,其特征在于,包括:
第一仿真机器人,采用仿真人体设计,包括第一皮肤层、第一骨骼层及第一填充层;所述第一皮肤层内置有第一传感器模块;结合所述第一骨骼层安装有第一活动装置,用于与第一用户进行触碰交互;所述第一传感器模块用于将所述第一用户触碰交互后感应的体感信号转化为电信号发送至中央处理模块;所述第一活动装置用于接收所述中央处理模块发送的活动指令并执行;
第二仿真机器人,采用仿真人体设计,包括第二皮肤层、第二骨骼层及第二填充层,所述第二皮肤层内置有第二传感器模块;结合所述第二骨骼层安装有第二活动装置,用于与第二用户进行触碰交互;所述第二传感器模块用于将所述第二用户触碰交互后感应的体感信号转化为电信号发送至所述中央处理模块;所述第二活动装置用于接收所述中央处理模块发送的活动指令并执行;
所述中央处理模块,用于接收所述第一传感器模块及所述第二传感器模块发送的电信号,将所述电信号进行识别并还原出所述第一用户及所述第二用户的触碰交互的行为模式;并根据所述第一用户的行为模式制作成相同行为的活动指令发送至所述第二仿真机器人,根据所述第二用户的行为模式制作成相同行为的活动指令发送至所述第一仿真机器人;
阈值预警模块,用于对所述第一传感器模块及所述第二传感器模块二者感应的体感信号进行最大阈值的设定,当所述体感信号超过所述最大阈值时,阻断所述体感信号发送到所述中央处理模块。
2.如权利要求1所述的远程体感交互系统,其特征在于,还包括:动作捕捉装置,所述动作捕捉装置有红外采像设备及惯性运动捕捉设备,用于捕捉所述第一用户及所述第二用户的动作信息,并发送至所述中央处理模块。
3.如权利要求1所述的远程体感交互系统,其特征在于,所述第一仿真机器人及所述第二仿真机器人的所述皮肤层均安装有发热装置模块,用于接收所述中央处理模块发送的发热信号进行当前位置的发热。
4.如权利要求1所述的远程体感交互系统,其特征在于,所述第一仿真机器人及所述第二仿真机器人二者对应人体的可湿润部位设有湿润装置模块。
5.如权利要求1所述的远程体感交互系统,其特征在于,所述第一仿真机器人及所述第二仿真机器人还包括:表情捕捉装置及表情生成装置;所述表情捕捉装置用于捕捉用户的表情并发送至所述中央处理模块;所述表情生成装置用于接收所述中央处理模块的表情生成指令并执行。
6.如权利要求1所述的远程体感交互系统,其特征在于,所述第一仿真机器人及所述第二仿真机器人还包括:声音收录装置及音响装置;所述声音收录装置用于收录用户的声音并发送至所述中央处理模块;所述音响装置用于接收所述中央处理模块的声音信号并播放。
7.如权利要求1所述的远程体感交互系统,其特征在于,所述第一传感器模块及所述第二传感器模块中包括:压力传感器、速度传感器、湿度传感器及温度传感器。
8.如权利要求1所述的远程体感交互系统,其特征在于,所述第一活动装置及所述第二活动装置设有安全力度阈值;当接收到的活动指令的力度超过所述安全力度阈值时,所述第一活动装置或所述第二活动装置停止动作。
9.一种远程体感交互方法,其特征在于,包括以下步骤:
步骤S10:预先对所述第一用户及所述第二用户建立生物体征模型,调节交互过程中的参数并进行存储,从而可实现后续的面部识别;
步骤S210:获取所述第一用户对所述第一仿真机器人触碰交互时,第一传感器模块发出的电信号;
步骤S30:所述中央处理模块对所述电信号进行识别解析并还原出所述第一用户对所述第一仿真机器人的行为模式;
步骤S40:根据所述行为模式生成相应的活动指令发送至所述第二仿真机器人;
步骤S50:控制所述第二仿真机器人对所述第二用户执行所述活动指令。
其中,所述第二仿真机器人与所述第二用户的交互方法的步骤与上述步骤相同。
10.一种存储介质,存储计算机指令,其特征在于,所述计算机指令在处理器上运行时,可执行如权利要求9中所述的远程体感交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910395493.6A CN110103238A (zh) | 2019-05-13 | 2019-05-13 | 一种远程体感交互系统、方法及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910395493.6A CN110103238A (zh) | 2019-05-13 | 2019-05-13 | 一种远程体感交互系统、方法及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110103238A true CN110103238A (zh) | 2019-08-09 |
Family
ID=67489775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910395493.6A Pending CN110103238A (zh) | 2019-05-13 | 2019-05-13 | 一种远程体感交互系统、方法及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110103238A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003305670A (ja) * | 2002-02-13 | 2003-10-28 | Center For Advanced Science & Technology Incubation Ltd | ロボットフォン |
CN103269346A (zh) * | 2013-06-04 | 2013-08-28 | 温才燚 | 一种用于教学的远程交互系统 |
CN103916528A (zh) * | 2013-01-09 | 2014-07-09 | 联想(北京)有限公司 | 一种信息交互的方法及终端 |
CN206614555U (zh) * | 2017-03-22 | 2017-11-07 | 深圳光启合众科技有限公司 | 机器人 |
CN109416701A (zh) * | 2016-04-26 | 2019-03-01 | 泰康机器人公司 | 多种交互人格的机器人 |
-
2019
- 2019-05-13 CN CN201910395493.6A patent/CN110103238A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003305670A (ja) * | 2002-02-13 | 2003-10-28 | Center For Advanced Science & Technology Incubation Ltd | ロボットフォン |
CN103916528A (zh) * | 2013-01-09 | 2014-07-09 | 联想(北京)有限公司 | 一种信息交互的方法及终端 |
CN103269346A (zh) * | 2013-06-04 | 2013-08-28 | 温才燚 | 一种用于教学的远程交互系统 |
CN109416701A (zh) * | 2016-04-26 | 2019-03-01 | 泰康机器人公司 | 多种交互人格的机器人 |
CN206614555U (zh) * | 2017-03-22 | 2017-11-07 | 深圳光启合众科技有限公司 | 机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017076224A1 (zh) | 基于虚拟现实的用户交互方法及系统 | |
CN106999766A (zh) | 用于触觉输出设备的体系架构和通信协议 | |
CN103197757A (zh) | 一种沉浸式虚拟现实系统及其实现方法 | |
CN107943282A (zh) | 一种基于增强现实和可穿戴设备的人机交互系统及方法 | |
CN105653012A (zh) | 多用户沉浸式全互动虚拟现实工程培训系统 | |
CN107092353B (zh) | 一种手部触感参数的采集及模拟还原系统和方法 | |
CN105607823A (zh) | 触觉触发器修改系统 | |
CN105353871B (zh) | 一种虚拟现实场景中目标物体的控制方法及装置 | |
CN104991650A (zh) | 一种手势控制器及一种虚拟现实系统 | |
US20150331483A1 (en) | System and method for simulating a user presence | |
CN104470593A (zh) | 社交舞用的系统和方法 | |
CN106445157A (zh) | 一种画面显示方向调整的方法以及装置 | |
CN103167145A (zh) | 一种手机体感游戏实现系统及方法 | |
CN206584310U (zh) | 一种应用于虚拟现实中的mr手套 | |
WO2019225548A1 (ja) | 遠隔操作システム、情報処理方法、及びプログラム | |
CN103019386A (zh) | 一种人机互动的控制方法及其运用 | |
Moskvitch | Tactile Internet: 5G and the Cloud on steroids | |
CN106527710A (zh) | 虚拟现实交互方法及装置 | |
CN107643820B (zh) | Vr被动型机器人及其实现方法 | |
CN102122204B (zh) | 分布式力觉同步感知方法及系统 | |
EP3458943B1 (en) | Haptic communication apparatus, integrated touch sensing and simulating apparatus and method for haptic communication | |
CN108058163A (zh) | 一种具有知识共享与自主学习的云机器人系统 | |
CN107838921A (zh) | 一种基于vr的机器人培训系统 | |
CN105892627A (zh) | 虚拟超越现实的方法和装置以及使用其的眼镜或头盔 | |
CN110103238A (zh) | 一种远程体感交互系统、方法及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190809 |