CN113110733A - 一种基于远程双工的虚拟现场交互方法及系统 - Google Patents
一种基于远程双工的虚拟现场交互方法及系统 Download PDFInfo
- Publication number
- CN113110733A CN113110733A CN202110235838.9A CN202110235838A CN113110733A CN 113110733 A CN113110733 A CN 113110733A CN 202110235838 A CN202110235838 A CN 202110235838A CN 113110733 A CN113110733 A CN 113110733A
- Authority
- CN
- China
- Prior art keywords
- interaction
- information
- live
- interactive
- action
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/105—Human resources
- G06Q10/1053—Employment or hiring
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Entrepreneurship & Innovation (AREA)
- General Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种基于远程双工的虚拟现场交互方法及系统,所述交互方法包括:采集第一交互对象的第一人称视角下的第一实景信息及面向第一交互对象的第一实景交互信息;采集面向第二交互对象的第二实景交互信息;获得由第二实景交互信息与第一实景信息融合生成的场景融合交互信息;将场景融合交互信息展示在第一交互对象处,第一实景交互信息展示在第二交互对象处。本发明通过将场景融合交互信息展示在第一交互对象处,将第一实景交互信息展示在第二交互对象处,实现了远程的第一交互对象和第二交互对象“面对面”地交互,为跨区域、跨省份的较远距离的招聘带来了便利,使得供需双方的交流更加直观和方便,有利于双方更直观地了解,提高了洞察力。
Description
技术领域
本发明涉及远程虚拟互动交互技术,尤其涉及一种基于远程双工的虚拟现场交互方法及系统。
背景技术
现有的人才招聘渠道多以人才网站为主,通过人才在线上投递简历至用人单位来完成线上的初步沟通了解,或通过简历挂靠在网站上,通过猎头或HR 来主动完成人才的网上筛选,再通过线下预约来实现双方的当面交流和了解,为职位匹配提高准确度。上述的人才招聘方式具有较好的针对性,但是也存在一定的局限性,因为需要进行线下预约当面交流和了解,所以上述方式一般仅限于同城招聘,尤其是对于高薪层次的人才招聘。对于跨区域、跨省份的较远距离的招聘,线下预约当面交流则显得不够方便。为此,也有一些通过线上电话交流来完成招聘的,但是通过电话招聘仍然不具有洞察性,不够直观和方便,不利于双方更直观地了解。
发明内容
本发明的目的在于克服现有技术的不足,提供了一种基于远程双工的虚拟现场交互方法及系统,通过虚拟现场交互的方式来完成“面对面”地直观交流,方便供需双方更好地洞察了解。
为了解决上述技术问题,本发明采用的技术方案为:
一方面,本发明的实施例提供一种基于远程双工的虚拟现场交互方法,所述方法包括:
采集第一交互对象的第一人称视角下的第一实景信息以及面向该第一交互对象的第一实景交互信息,并同步返回至服务器;
采集面向第二交互对象的第二实景交互信息,并返回至服务器;
获得由所述第二实景交互信息与所述第一实景信息融合生成的场景融合交互信息;
将所述场景融合交互信息展示在第一交互对象处,所述第一实景交互信息展示在第二交互对象处。
优选地,在上述的基于远程双工的虚拟现场交互方法中,所述第一实景信息为基于所述第一交互对象的第一人称视角下的动态实景影像。
优选地,在上述的基于远程双工的虚拟现场交互方法中,所述第一实景信息的动态实景影像包括主视线实景影像和非主视线实景影像,所述主视线实景影像用于与所述第二实景交互信息融合,生成所述场景融合交互信息。
优选地,在上述的基于远程双工的虚拟现场交互方法中,所述第二实景交互信息包括面向所述第二交互对象的动态影像以及所述第二交互对象输出的语音交互信息。
优选地,在上述的基于远程双工的虚拟现场交互方法中,所述第一实景交互信息包括面向所述第一交互对象的动态影像以及所述第一交互对象输出的语音交互信息。
优选地,在上述的基于远程双工的虚拟现场交互方法中,所述场景融合交互信息的融合生成步骤包括:
在所述主视线实景画面上标定出虚拟对象锚定区域;
将所述第二实景交互信息中面向所述第二交互对象的动态影像中的所述第二交互对象的动态人像进行提取;
将提取的所述第二交互对象的动态人像融合在所述主视线实景影像的的虚拟对象锚定区域上;
将所述第二交互对象输出的语音交互信息的时间轨道与所述第二交互对象的动态人像的时间轨道进行同步。
优选地,在上述的基于远程双工的虚拟现场交互方法中,在所述第一交互对象向所述第二交互对象发起远程双工交互请求并建立交互通道后,同步开始采集所述第一实景信息、所述第一实景交互信息,以及所述第二实景交互信息。
另一面方面,本发明的实施例提供一种基于远程双工的虚拟现场交互系统,所述交互系统包括:
第一采集模块,用于采集第一交互对象的第一人称视角下的第一实景信息以及面向该第一交互对象的第一实景交互信息,并同步返回至服务器;
第二采集模块,用于采集面向第二交互对象的第二实景交互信息,并返回至服务器;
服务器,用于接收所述第一采集模块和所述第二采集模块分别返回的信息,以及融合生成由所述第二实景交互信息与所述第一实景信息构成的场景融合交互信息;
信息交互模块,用于在所述第一交互对象处展示所述服务器返回的所述场景融合交互信息,在所述第二交互对象处展示所述服务器返回的所述第一实景交互信息。
优选地,在上述的基于远程双工的虚拟现场交互系统中,所述交互系统还包括:
交互请求模块,用于所述第一交互对象向所述第二交互对象发起远程双工交互请求信号;
交互接受模块,用于所述第二交互对象向所述第一交互对象发起远程双工交互接受信号。
优选地,在上述的基于远程双工的虚拟现场交互系统中,所述信息交互模块为VR虚拟头部穿戴装置。
本发明的有益技术效果为:本发明通过采集第一交互对象的第一人称视角下的第一实景信息、面向该第一交互对象的第一实景交互信息以及面向第二交互对象的第二实景交互信息,然后将第二实景交互信息与第一实景信息融合生成场景融合交互信息,再将场景融合交互信息展示在第一交互对象处,将第一实景交互信息展示在第二交互对象处,实现了远程的第一交互对象和第二交互对象“面对面”地交互,为跨区域、跨省份的较远距离的招聘带来了便利,使得供需双方的交流更加直观和方便,有利于双方更直观地了解,提高了洞察力。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明一实施例中所述交互方法流程图;
图2为本发明一实施例中所述交互方法流程图;
图3为本发明一实施例中所述交互系统的结构示意图;
图4为本发明一实施例中所述交互系统的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参见图1,如图所示,图1为本发明实施例示出的一种基于远程双工的虚拟现场交互方法。该交互方法包括以下步骤:
步骤S100、采集第一交互对象的第一人称视角下的第一实景信息以及面向该第一交互对象的第一实景交互信息,并同步返回至服务器;
步骤S200、采集面向第二交互对象的第二实景交互信息,并返回至服务器;
步骤S300、获得由所述第二实景交互信息与所述第一实景信息融合生成的场景融合交互信息;
步骤S400、将所述场景融合交互信息展示在第一交互对象处,所述第一实景交互信息展示在第二交互对象处。
虚拟现实技术为人机交互技术的发展开创了新的研究领域,虚拟现实技术主要涉及模拟环境、感知、自然技能和传感设备等方面,已经远远超越了早期“训练模拟器”的范畴,也已经不仅仅是作用改进现有信息系统中的人机交互方式的手段,它影响到信息系统中的信息的表现形态、信息的组织与管理的方法,甚至改变着信息系统的设计原则,使之更能适应以用户为中心的应用需要。本发明将虚拟现实技术应用至人才招聘的跨区域远程交互中,通过采集第一交互对象的第一人称视角下的第一实景信息、面向该第一交互对象的第一实景交互信息以及面向第二交互对象的第二实景交互信息,然后将第二实景交互信息与第一实景信息融合生成场景融合交互信息,再将场景融合交互信息展示在第一交互对象处,将第一实景交互信息展示在第二交互对象处,实现了远程的第一交互对象和第二交互对象“面对面”地交互,为跨区域、跨省份的较远距离的招聘带来了便利,使得供需双方的交流更加直观和方便,有利于双方更直观地了解,提高了洞察力。
进一步地,在本发明的优选实施例中,所述第一实景信息为基于所述第一交互对象的第一人称视角下的动态实景影像。具体地,在本发明的优选实施例中,为提高第一交互对象一端的观感真实度,该第一实景信息的动态实景影像包括主视线实景影像和非主视线实景影像。其中,该主视线实景影像用于与所述第二实景交互信息融合,生成场景融合交互信息。通过主视线实景影像与所述第二实景交互信息融合,生成展示在第一交互对象一端的场景融合交互信息,使得第二交互对象在第一交互对象一端的交互更为真实,实现了“面对面”的交互,进一步提高了远程的第一交互对象和第二交互对象的交互体验。
下面结合一个具体实施例来说明本发明,本实施例中以猎头-人才的远程虚拟现场交互场景为例说明,具体包括以下步骤:
步骤S10:采集猎头(第一交互对象)的第一人称视角下的第一实景信息以及面向该猎头(第一交互对象)的第一实景交互信息,并同步返回至服务器;
步骤S20:采集面向人才(第二交互对象)的第二实景交互信息,并返回至服务器;
步骤S30:获得由第二实景交互信息与第一实景信息融合生成的场景融合交互信息;
步骤S40:将所述场景融合交互信息展示在猎头(第一交互对象)处,所述第一实景交互信息展示在人才(第二交互对象)处。
具体的,在步骤S10中,利用后置摄像头采集猎头(第一交互对象)的第一人称视角下的第一实景信息,利用前摄像头和麦克风采集面向该猎头(第一交互对象)的第一实景交互信息以及该猎头(第一交互对象)的讲话。
具体的,在步骤S20中,利用前置摄像头采集面向人才(第二交互对象) 的第二实景交互信息,并返回至服务器。
具体的,在步骤S30中,获得由第二实景交互信息与第一实景信息融合生成的场景融合交互信息。其中,在进行场景融合前,还包括对所述第二实景交互信息进行降噪处理。具体是,首先采用灰度变换对第二实景交互信息进行处理,通过对第二实景交互信息中的动态影像的像素值进行灰度化,目的是为了改善画质,使影像显示的效果更好更清晰。具体地,灰度变换有时被称为图像对比度增强或对比度拉伸,可以是分段线性灰度变换、比例线性灰度变换或非线性灰度变换。
接着,对灰度化处理后的第二实景交互信息进行降噪处理,采用小波分析对灰度处理之后获取的第二实景交互信息进行降噪处理,首先对灰度处理之后获取的第二实景交互信息的信号进行小波分解,然后对经过层次分解后的高频系数进行阈值量化处理,最后利用二维小波重构图像信号获取降噪后的第二实景交互信息。采用小波分析进行图像信息降噪是因为该方式降噪可以较好的保持影像信息原有的图像细节信息。在实施降噪过程中,可根据用户需求或技术条件选择其他降噪方式,如中值滤波降噪、均值滤波降噪等方式。这些均为现有成熟技术,不再赘述。
进一步地,在本发明的优选实施例中,所述第二实景交互信息包括面向所述第二交互对象的动态影像以及所述第二交互对象输出的语音交互信息。其中,所述第二交互对象的动态影像包括该第二交互对象的人像动态影像以及该第二交互对象的背景。所述第一实景信息与所述第二实景交互信息进行融合生成所述场景融合交互信息,具体是将所述第一实景信息作为所述场景融合交互信息的背景信息,将所述第二交互对象的人像动态影像作为前景主体,也即是将所述第二交互对象的动态影像中的该第二交互对象的人像动态影像从该第二交互对象的背景中“抠图”出来,然后融合在所述第一实景信息中。
具体地,在融合生成场景融合交互信息时,是将所述第一实景信息的动态实景影像中的主视线实景影像与所述第二实景交互信息中的所述第二交互对象的动态影像中的该第二交互对象的人像动态影像融合。在切换到非主视线实景影像时,所述第二实景交互信息中的所述第二交互对象的动态影像中的该第二交互对象的人像动态影像是不与所述第一实景信息的动态实景影像中的主视线实景影像融合的。即在第一交互对象处,展示出的场景融合交互信息是一种虚拟的第二交互对象,营造一种与第二交互对象“面对面”实时沟通的“幻象”,提高双方沟通了解的实时性和直观性,通过虚拟的“面对面”沟通,可以直观地感受到交谈过程中的面部表情变化以及应对情况,实现跨地域的远距离虚拟“面对面”沟通。
进一步地,在本发明的优选实施例中,如图2所示,所述场景融合交互信息的融合生成步骤包括:
步骤S310、在所述主视线实景画面上标定出虚拟对象锚定区域;
步骤S320、将所述第二实景交互信息中面向所述第二交互对象的动态影像中的所述第二交互对象的动态人像进行提取;
步骤S330、将提取的所述第二交互对象的动态人像融合在所述主视线实景影像的的虚拟对象锚定区域上;
步骤S340、将所述第二交互对象输出的语音交互信息的时间轨道与所述第二交互对象的动态人像的时间轨道进行同步。
进一步地,在本发明的优选实施例中,在所述第一交互对象向所述第二交互对象发起远程双工交互请求并建立交互通道后,同步开始采集所述第一实景信息、所述第一实景交互信息,以及所述第二实景交互信息。通过双工交互,实现了第一交互对象和第二交互的实时对话,同时,通过将由所述第二实景交互信息与所述第一实景信息融合生成的场景融合交互信息展示在第一交互对象处,将所述第一实景交互信息展示在第二交互对象处,构建了一个虚拟仿真的交谈现场,即构建了以第一交互对象为“主”,第二交互对象为“客”的“当面”沟通场景,营造出了第二交互对象身处在第一交互对象的会客厅中的情形,同时使得第二交互对象置身第一交互对象的会客厅中的情形,模拟了真实的“面谈”场景。
另一面方面,本发明的实施例还提出一种基于远程双工的虚拟现场交互系统,如图3所示,该交互系统包括:
第一采集模块1,用于采集第一交互对象的第一人称视角下的第一实景信息以及面向该第一交互对象的第一实景交互信息,并同步返回至服务器;
第二采集模块2,用于采集面向第二交互对象的第二实景交互信息,并返回至服务器;
服务器3,用于接收所述第一采集模块和所述第二采集模块分别返回的信息,以及融合生成由所述第二实景交互信息与所述第一实景信息构成的场景融合交互信息;
信息交互模块4,用于在所述第一交互对象处展示所述服务器返回的所述场景融合交互信息,在所述第二交互对象处展示所述服务器返回的所述第一实景交互信息。
虚拟现实技术为人机交互技术的发展开创了新的研究领域,虚拟现实技术主要涉及模拟环境、感知、自然技能和传感设备等方面,已经远远超越了早期“训练模拟器”的范畴,也已经不仅仅是作用改进现有信息系统中的人机交互方式的手段,它影响到信息系统中的信息的表现形态、信息的组织与管理的方法,甚至改变着信息系统的设计原则,使之更能适应以用户为中心的应用需要。本发明将虚拟现实技术应用至人才招聘的跨区域远程交互中,通过采集第一交互对象的第一人称视角下的第一实景信息、面向该第一交互对象的第一实景交互信息以及面向第二交互对象的第二实景交互信息,然后将第二实景交互信息与第一实景信息融合生成场景融合交互信息,再将场景融合交互信息展示在第一交互对象处,将第一实景交互信息展示在第二交互对象处,实现了远程的第一交互对象和第二交互对象“面对面”地交互,为跨区域、跨省份的较远距离的招聘带来了便利,使得供需双方的交流更加直观和方便,有利于双方更直观地了解,提高了洞察力。
进一步地,在本发明的优选实施例中,所述第一实景信息为基于所述第一交互对象的第一人称视角下的动态实景影像。具体地,在本发明的优选实施例中,为提高第一交互对象一端的观感真实度,该第一实景信息的动态实景影像包括主视线实景影像和非主视线实景影像。其中,该主视线实景影像用于与所述第二实景交互信息融合,生成场景融合交互信息。通过主视线实景影像与所述第二实景交互信息融合,生成展示在第一交互对象一端的场景融合交互信息,使得第二交互对象在第一交互对象一端的交互更为真实,实现了“面对面”的交互,进一步提高了远程的第一交互对象和第二交互对象的交互体验。
下面结合一个具体实施例来说明本发明,本实施例中以猎头-人才的远程虚拟现场交互场景为例说明,具体包括以下步骤:
步骤S10:通过布置在猎头(第一交互对象)处的第一采集模块1采集猎头(第一交互对象)的第一人称视角下的第一实景信息以及面向该猎头(第一交互对象)的第一实景交互信息,并同步返回至服务器;
步骤S20:通过布置在人才(第二交互对象)处的第二采集模块2采集面向人才(第二交互对象)的第二实景交互信息,并返回至服务器;
步骤S30:服务器3获得由第二实景交互信息与第一实景信息融合生成的场景融合交互信息;
步骤S40:通过服务器3分别将所述场景融合交互信息展示在猎头(第一交互对象)处的信息交互模块4,将所述第一实景交互信息展示在人才(第二交互对象)处的信息交互模块4,以实现猎头(第一交互对象)和人才(第二交互对象)“面对面”的交流。
具体的,在步骤S10中,利用第一采集模块1的后置摄像头采集猎头(第一交互对象)的第一人称视角下的第一实景信息,利用第一采集模块1的前摄像头和布置在猎头(第一交互对象)处的信息交互模块4上的麦克风采集面向该猎头(第一交互对象)的第一实景交互信息以及该猎头(第一交互对象)的讲话。
具体的,在步骤S20中,利用第二采集模块2的前置摄像头采集面向人才 (第二交互对象)的第二实景交互信息,并返回至服务器。
具体的,在步骤S30中,获得由第二实景交互信息与第一实景信息融合生成的场景融合交互信息。其中,在进行场景融合前,还包括对所述第二实景交互信息进行降噪处理。具体是,首先采用灰度变换对第二实景交互信息进行处理,通过对第二实景交互信息中的动态影像的像素值进行灰度化,目的是为了改善画质,使影像显示的效果更好更清晰。具体地,灰度变换有时被称为图像对比度增强或对比度拉伸,可以是分段线性灰度变换、比例线性灰度变换或非线性灰度变换。
接着,对灰度化处理后的第二实景交互信息进行降噪处理,采用小波分析对灰度处理之后获取的第二实景交互信息进行降噪处理,首先对灰度处理之后获取的第二实景交互信息的信号进行小波分解,然后对经过层次分解后的高频系数进行阈值量化处理,最后利用二维小波重构图像信号获取降噪后的第二实景交互信息。采用小波分析进行图像信息降噪是因为该方式降噪可以较好的保持影像信息原有的图像细节信息。在实施降噪过程中,可根据用户需求或技术条件选择其他降噪方式,如中值滤波降噪、均值滤波降噪等方式。这些均为现有成熟技术,不再赘述。
进一步地,在本发明的优选实施例中,所述第二实景交互信息包括面向所述第二交互对象的动态影像以及所述第二交互对象输出的语音交互信息。其中,所述第二交互对象的动态影像包括该第二交互对象的人像动态影像以及该第二交互对象的背景。所述第一实景信息与所述第二实景交互信息进行融合生成所述场景融合交互信息,具体是将所述第一实景信息作为所述场景融合交互信息的背景信息,将所述第二交互对象的人像动态影像作为前景主体,也即是将所述第二交互对象的动态影像中的该第二交互对象的人像动态影像从该第二交互对象的背景中“抠图”出来,然后融合在所述第一实景信息中。
具体地,在融合生成场景融合交互信息时,是将所述第一实景信息的动态实景影像中的主视线实景影像与所述第二实景交互信息中的所述第二交互对象的动态影像中的该第二交互对象的人像动态影像融合。在切换到非主视线实景影像时,所述第二实景交互信息中的所述第二交互对象的动态影像中的该第二交互对象的人像动态影像是不与所述第一实景信息的动态实景影像中的主视线实景影像融合的。即在第一交互对象处,展示出的场景融合交互信息是一种虚拟的第二交互对象,营造一种与第二交互对象“面对面”实时沟通的“幻象”,提高双方沟通了解的实时性和直观性,通过虚拟的“面对面”沟通,可以直观地感受到交谈过程中的面部表情变化以及应对情况,实现跨地域的远距离虚拟“面对面”沟通。
进一步地,在本发明的优选实施例中,如图2所示,所述场景融合交互信息的融合生成步骤包括:
步骤S310、在所述主视线实景画面上标定出虚拟对象锚定区域;
步骤S320、将所述第二实景交互信息中面向所述第二交互对象的动态影像中的所述第二交互对象的动态人像进行提取;
步骤S330、将提取的所述第二交互对象的动态人像融合在所述主视线实景影像的的虚拟对象锚定区域上;
步骤S340、将所述第二交互对象输出的语音交互信息的时间轨道与所述第二交互对象的动态人像的时间轨道进行同步。
进一步地,在本发明的优选实施例中,在所述第一交互对象向所述第二交互对象发起远程双工交互请求并建立交互通道后,同步开始采集所述第一实景信息、所述第一实景交互信息,以及所述第二实景交互信息。通过双工交互,实现了第一交互对象和第二交互的实时对话,同时,通过将由所述第二实景交互信息与所述第一实景信息融合生成的场景融合交互信息展示在第一交互对象处,将所述第一实景交互信息展示在第二交互对象处,构建了一个虚拟仿真的交谈现场,即构建了以第一交互对象为“主”,第二交互对象为“客”的“当面”沟通场景,营造出了第二交互对象身处在第一交互对象的会客厅中的情形,同时使得第二交互对象置身第一交互对象的会客厅中的情形,模拟了真实的“面谈”场景。
进一步地,在本发明的优选实施例中,如图4所示,所述交互系统还包括:
交互请求模块5,用于所述第一交互对象向所述第二交互对象发起远程双工交互请求信号;
交互接受模块6,用于所述第二交互对象向所述第一交互对象发起远程双工交互接受信号。
在本发明的优选实施例中,交互请求模块5可以集成在布置于第一交互对象处的信息交互模块4上,交互接受模块6可以集成在布置于第二交互对象的信息交互模块4上。所述信息交互模块为VR虚拟头部穿戴装置,优选为VR 眼镜。
另一面方面,本发明还提出了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述基于远程双工的虚拟现场交互方法。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
示例性的,计算机程序可以被分割成一个或多个模块/单元,一个或者多个模块/单元被存储在存储器中,并由处理器执行,以完成本发明。一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述计算机程序在计算机设备中的执行过程。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以是计算机设备的内部存储单元,例如计算机设备的硬盘或内存。存储器也可以是计算机设备的外部存储设备,例如计算机设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD) 卡,闪存卡(Flash Card)等。进一步地,存储器还可以既包括计算机设备的内部存储单元也包括外部存储设备。存储器用于存储计算机程序以及终端设备所需的其他程序和数据。存储器还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于远程双工的虚拟现场交互方法,其特征在于,所述方法包括:
采集第一交互对象的第一人称视角下的第一实景信息以及面向该第一交互对象的第一实景交互信息,并同步返回至服务器;
采集面向第二交互对象的第二实景交互信息,并返回至服务器;
获得由所述第二实景交互信息与所述第一实景信息融合生成的场景融合交互信息;
将所述场景融合交互信息展示在第一交互对象处,所述第一实景交互信息展示在第二交互对象处。
2.根据权利要求1所述的基于远程双工的虚拟现场交互方法,其特征在于,所述第一实景信息为基于所述第一交互对象的第一人称视角下的动态实景影像。
3.根据权利要求2所述的基于远程双工的虚拟现场交互方法,其特征在于,所述第一实景信息的动态实景影像包括主视线实景影像和非主视线实景影像,所述主视线实景影像用于与所述第二实景交互信息融合,生成所述场景融合交互信息。
4.根据权利要求3所述的基于远程双工的虚拟现场交互方法,其特征在于,所述第二实景交互信息包括面向所述第二交互对象的动态影像以及所述第二交互对象输出的语音交互信息。
5.根据权利要求1所述的基于远程双工的虚拟现场交互方法,其特征在于,所述第一实景交互信息包括面向所述第一交互对象的动态影像以及所述第一交互对象输出的语音交互信息。
6.根据权利要求4所述的基于远程双工的虚拟现场交互方法,其特征在于,所述场景融合交互信息的融合生成步骤包括:
在所述主视线实景影像上标定出虚拟对象锚定区域;
将所述第二实景交互信息中面向所述第二交互对象的动态影像中的所述第二交互对象的动态人像进行提取;
将提取的所述第二交互对象的动态人像融合在所述主视线实景影像的虚拟对象锚定区域上;
将所述第二交互对象输出的语音交互信息的时间轨道与所述第二交互对象的动态人像的时间轨道进行同步。
7.根据权利要求1所述的基于远程双工的虚拟现场交互方法,其特征在于,在所述第一交互对象向所述第二交互对象发起远程双工交互请求并建立交互通道后,同步开始采集所述第一实景信息、所述第一实景交互信息,以及所述第二实景交互信息。
8.一种基于远程双工的虚拟现场交互系统,其特征在于,所述交互系统包括:
第一采集模块,用于采集第一交互对象的第一人称视角下的第一实景信息以及面向该第一交互对象的第一实景交互信息,并同步返回至服务器;
第二采集模块,用于采集面向第二交互对象的第二实景交互信息,并返回至服务器;
服务器,用于接收所述第一采集模块和所述第二采集模块分别返回的信息,以及融合生成由所述第二实景交互信息与所述第一实景信息构成的场景融合交互信息;
信息交互模块,用于在所述第一交互对象处展示所述服务器返回的所述场景融合交互信息,在所述第二交互对象处展示所述服务器返回的所述第一实景交互信息。
9.根据权利要求8所述的基于远程双工的虚拟现场交互系统,其特征在于,所述交互系统还包括:
交互请求模块,用于所述第一交互对象向所述第二交互对象发起远程双工交互请求信号;
交互接受模块,用于所述第二交互对象向所述第一交互对象发起远程双工交互接受信号。
10.根据权利要求8所述的基于远程双工的虚拟现场交互系统,其特征在于,所述信息交互模块为VR虚拟头部穿戴装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110235838.9A CN113110733A (zh) | 2021-03-03 | 2021-03-03 | 一种基于远程双工的虚拟现场交互方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110235838.9A CN113110733A (zh) | 2021-03-03 | 2021-03-03 | 一种基于远程双工的虚拟现场交互方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113110733A true CN113110733A (zh) | 2021-07-13 |
Family
ID=76709784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110235838.9A Pending CN113110733A (zh) | 2021-03-03 | 2021-03-03 | 一种基于远程双工的虚拟现场交互方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113110733A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115314684A (zh) * | 2022-10-10 | 2022-11-08 | 中国科学院计算机网络信息中心 | 一种铁路桥梁的巡检方法、系统、设备及可读存储介质 |
CN117493289A (zh) * | 2023-11-15 | 2024-02-02 | 早职到(广东)科技股份有限公司 | 一种多部门协同办公表单数据共享方法、系统及存储介质 |
-
2021
- 2021-03-03 CN CN202110235838.9A patent/CN113110733A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115314684A (zh) * | 2022-10-10 | 2022-11-08 | 中国科学院计算机网络信息中心 | 一种铁路桥梁的巡检方法、系统、设备及可读存储介质 |
CN115314684B (zh) * | 2022-10-10 | 2022-12-27 | 中国科学院计算机网络信息中心 | 一种铁路桥梁的巡检方法、系统、设备及可读存储介质 |
CN117493289A (zh) * | 2023-11-15 | 2024-02-02 | 早职到(广东)科技股份有限公司 | 一种多部门协同办公表单数据共享方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110503703B (zh) | 用于生成图像的方法和装置 | |
CN111654746B (zh) | 视频的插帧方法、装置、电子设备和存储介质 | |
CN113110733A (zh) | 一种基于远程双工的虚拟现场交互方法及系统 | |
CN108074241B (zh) | 目标图像的质量评分方法、装置、终端及存储介质 | |
CN112820408B (zh) | 手术操作风险确定方法、相关装置及计算机程序产品 | |
CN114187624B (zh) | 图像生成方法、装置、电子设备及存储介质 | |
CN110502974A (zh) | 一种视频图像的展示方法、装置、设备、及可读存储介质 | |
CN109325996B (zh) | 用于生成信息的方法和装置 | |
CN110059624B (zh) | 用于检测活体的方法和装置 | |
CN104361583B (zh) | 一种确定非对称失真立体图像客观质量的方法 | |
CN113453027B (zh) | 直播视频、虚拟上妆的图像处理方法、装置及电子设备 | |
CN112562056A (zh) | 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备 | |
CN108573192B (zh) | 匹配人脸的眼镜试戴方法和装置 | |
CN108921138B (zh) | 用于生成信息的方法和装置 | |
CN113610958A (zh) | 一种基于风格迁移的3d图像构建方法、装置及终端 | |
CN114004750A (zh) | 图像处理方法、装置和系统 | |
CN110555799A (zh) | 用于处理视频的方法和装置 | |
CN115984126A (zh) | 一种基于输入指令的光图像修正方法及装置 | |
CN114245193A (zh) | 显示控制方法、装置和电子设备 | |
CN112860060B (zh) | 一种图像识别方法、设备及存储介质 | |
CN114898122A (zh) | 图像处理方法、存储介质以及计算机终端 | |
CN112652056B (zh) | 一种3d信息展示方法及装置 | |
CN114612994A (zh) | 训练皱纹检测模型的方法、装置及检测皱纹的方法、装置 | |
CN113781653A (zh) | 对象模型生成方法、装置、电子设备及存储介质 | |
Fadzli et al. | A systematic literature review: Real-time 3D reconstruction method for telepresence system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |